<div dir="ltr"><font face="arial, sans-serif"><font color="#000000">Devi Parikh (Georgia Tech/Facebook AI) will be giving an online seminar on "</font>Multi-modality, Creativity, and Climate Change<font color="#000000">" from 12:00 noon - 01:00 PM ET on Oct 27.</font></font><div><font face="arial, sans-serif" color="#000000"><br></font></div><div><div><font face="arial, sans-serif"><font color="#000000"><u>Zoom Link</u>: </font><a href="https://cmu.zoom.us/j/94225196187?pwd=ckZnNlNhWHcxWm1wRGM0b0QzMlpMZz09">https://cmu.zoom.us/j/94225196187?pwd=ckZnNlNhWHcxWm1wRGM0b0QzMlpMZz09</a></font></div><div><font face="arial, sans-serif"><br></font></div><div><div><div class="gmail_default"><font face="arial, sans-serif" color="#000000">CMU AI Seminar is sponsored by Fortive. <br></font></div><div class="gmail_default"><font face="arial, sans-serif" color="#000000"><br></font></div><div class="gmail_default"><font face="arial, sans-serif" color="#000000">Following are the details of the talk:</font></div></div><div class="gmail_default"><font face="arial, sans-serif" color="#000000"><br></font></div><div class="gmail_default"><div class="gmail_default"><font face="arial, sans-serif"><font color="#000000"><b>Title: </b></font>Multi-modality, Creativity, and Climate Change</font></div><div class="gmail_default"><font face="arial, sans-serif" color="#000000"><br></font></div><div class="gmail_default"><font face="arial, sans-serif"><font color="#000000"><b>Abstract: </b></font><span style="color:rgb(0,0,0)">In this talk, I will talk about three directions I am currently excited about:</span></font></div><font face="arial, sans-serif"><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><span style="color:rgb(0,0,0)">(1) Multi-modal AI: I will describe some of our recent work on training models for multi-modal (vision and language) data. In particular, I will describe our work on training a single transformer-based model that can perform 12 different tasks. Given an image and a question, it can answer the question. Given an image and a caption, it can score their relevance. Given an image and a phrase, it can identify the image region that matches the phrase. And so on. I will show a demo of this model </span><a href="https://vilbert.cloudcv.org/" style="border-width:1px 1px 0px;border-top-style:initial;border-right-style:initial;border-bottom-style:solid;border-left-style:initial;border-top-color:initial;border-right-color:initial;border-bottom-color:rgb(59,89,152);border-left-color:initial;margin:1px;padding:0px;color:rgb(59,89,152);text-decoration-line:none">vilbert.cloudcv.org</a><span style="color:rgb(0,0,0)">. For anyone interested in multimodal AI, check out this open-source multimodal-framework </span><a href="https://github.com/facebookresearch/mmf" style="border-width:1px 1px 0px;border-top-style:initial;border-right-style:initial;border-bottom-style:solid;border-left-style:initial;border-top-color:initial;border-right-color:initial;border-bottom-color:rgb(59,89,152);border-left-color:initial;margin:1px;padding:0px;color:rgb(59,89,152);text-decoration-line:none">https://github.com/facebookresearch/mmf</a><span style="color:rgb(0,0,0)">.</span><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><span style="color:rgb(0,0,0)">(2) AI-assisted human-creativity: I will then talk about some of our initial work in seeing how AI can inspire human creativity in the context of thematic typography, dance movements, sketches, and generative art. I will also talk about some of our work on generating a visual abstraction that summarizes how your day was.</span><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><span style="color:rgb(0,0,0)">(3) AI to model and discover new catalysts: Finally, I will talk about our recently announced Open Catalyst Project on using AI to model and discover new catalysts to address the energy challenges posed by climate change. I will provide a brief overview of the domain and problem definition, introduce the large Open Catalyst Dataset we have collected and made publicly available, and benchmark a few existing graph neural network models. Find out more about the project here: </span><a href="https://opencatalystproject.org/" style="border-width:1px 1px 0px;border-top-style:initial;border-right-style:initial;border-bottom-style:solid;border-left-style:initial;border-top-color:initial;border-right-color:initial;border-bottom-color:rgb(59,89,152);border-left-color:initial;margin:1px;padding:0px;color:rgb(59,89,152);text-decoration-line:none">https://opencatalystproject.org/</a><span style="color:rgb(0,0,0)">.</span></font><div class="gmail_default"><font face="arial, sans-serif" color="#000000"><br></font></div><div class="gmail_default"><font face="arial, sans-serif"><font color="#000000"><b>Bio</b>: </font><span style="color:rgb(0,0,0)">Devi Parikh is an Associate Professor in the School of Interactive Computing at Georgia Tech, and a Research Scientist at Facebook AI Research (FAIR).</span></font></div><font face="arial, sans-serif"><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><span style="color:rgb(0,0,0)">From 2013 to 2016, she was an Assistant Professor in the Bradley Department of Electrical and Computer Engineering at Virginia Tech. From 2009 to 2012, she was a Research Assistant Professor at Toyota Technological Institute at Chicago (TTIC), an academic computer science institute affiliated with University of Chicago. She has held visiting positions at Cornell University, University of Texas at Austin, Microsoft Research, MIT, Carnegie Mellon University, and Facebook AI Research. She received her M.S. and Ph.D. degrees from the Electrical and Computer Engineering department at Carnegie Mellon University in 2007 and 2009 respectively. She received her B.S. in Electrical and Computer Engineering from Rowan University in 2005.</span><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><span style="color:rgb(0,0,0)">Her research interests are in computer vision, natural language processing, embodied AI, human-AI collaboration, and AI for creativity.</span><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><span style="color:rgb(0,0,0)">She is a recipient of an NSF CAREER award, an IJCAI Computers and Thought award, a Sloan Research Fellowship, an Office of Naval Research (ONR) Young Investigator Program (YIP) award, an Army Research Office (ARO) Young Investigator Program (YIP) award, a Sigma Xi Young Faculty Award at Georgia Tech, an Allen Distinguished Investigator Award in Artificial Intelligence from the Paul G. Allen Family Foundation, four Google Faculty Research Awards, an Amazon Academic Research Award, a Lockheed Martin Inspirational Young Faculty Award at Georgia Tech, an Outstanding New Assistant Professor award from the College of Engineering at Virginia Tech, a Rowan University Medal of Excellence for Alumni Achievement, Rowan University's 40 under 40 recognition, a Forbes' list of 20 "Incredible Women Advancing A.I. Research" recognition, and a Marr Best Paper Prize awarded at the International Conference on Computer Vision (ICCV).</span><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><br style="border:1px;margin:1px;padding:0px;color:rgb(0,0,0)"><a href="https://www.cc.gatech.edu/~parikh" style="border-width:1px 1px 0px;border-top-style:initial;border-right-style:initial;border-bottom-style:solid;border-left-style:initial;border-top-color:initial;border-right-color:initial;border-bottom-color:rgb(59,89,152);border-left-color:initial;margin:1px;padding:0px;color:rgb(59,89,152);text-decoration-line:none">https://www.cc.gatech.edu/~parikh</a></font><div class="gmail_default"><font face="arial, sans-serif"><span style="color:rgb(0,0,0)"><br></span></font></div><div class="gmail_default"><font face="arial, sans-serif"><span style="color:rgb(0,0,0)"><br></span></font></div><div class="gmail_default"><font face="arial, sans-serif"><span style="color:rgb(0,0,0)"><br></span></font></div><div class="gmail_default"><font face="arial, sans-serif" color="#000000">To learn more about the seminar series, please visit the website: <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">http://www.cs.cmu.edu/~aiseminar/</a></font></div></div></div></div><div><font face="arial, sans-serif"><br></font></div><font face="arial, sans-serif">-- <br></font><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div style="margin:0px;padding:0px 0px 20px;width:864px"><div style=""><div style="margin:8px 0px 0px;padding:0px"><div style=""><div dir="ltr" style=""><div style=""><font face="arial, sans-serif"><font color="#444444">Aayush Bansal</font><br></font></div><div style=""><font face="arial, sans-serif"><a href="http://www.cs.cmu.edu/~aayushb/" target="_blank">http://www.cs.cmu.edu/~aayushb/</a></font></div></div><div style="font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:medium"></div><div style="font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:medium"></div></div></div><div style="font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif;font-size:medium"></div></div></div></div></div></div></div></div></div></div>