<div dir="ltr"><div class="gmail_default" style=""><div class="gmail_default" style="color:rgb(34,34,34)"><div class="gmail_default">Dear faculty and students:<br><br>We look forward to seeing you next Tuesday, Sep. 24th, at noon in <b>NSH 3305 </b>for our first <span class="gmail-il">AI</span> <span class="gmail-il">Seminar</span> this semester, sponsored by Apple. To learn more about the <span class="gmail-il">seminar</span> series, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">website</a>. </div><div class="gmail_default">On Tuesday, Aayush Bansal will give the following talk:</div><b>Title: Association and Imagination</b></div><div class="gmail_default" style="color:rgb(34,34,34)"><b><br></b></div><div class="gmail_default" style=""><b style="color:rgb(34,34,34)">Abstract: </b>When you see the sunset standing on Seine river in Paris, you can trivially imagine it along the Monongahela in Pittsburgh. When you hear something, you can easily imagine how someone would have said it. When you think of an event from the past, you can relive every bit of it in your imagination. Humans have remarkable abilities to associate different concepts and create visual worlds far beyond what could be seen by a human eye, including inferring the state of unobserved, imagining the unknown, and thinking about diverse possibilities about what lies in the future. These human powers require minimal instructions, and primarily relies on observation and interaction with a dynamic environment. The simple tasks from daily life that are trivial for humans to think and imagine have remained challenging for machine perception and artificial intelligence. The inability to associate and a lack of sense of imagination in machines substantially restricts their applicability.</div><div class="gmail_default" style=""><br></div>In this talk, I will demonstrate how thinking about association at various levels of abstraction can lead to machine imagination. I will present algorithms that enable association between different domains in an unsupervised manner. This ability to associate allows automatic creation of audio and visual content (images, videos, 4D space-time visualization of dynamic events) that is also user-controllable and interactive. I will show diverse user applications in audio-visual data retargeting, reconstruction, synthesis, and manipulation. These applications are the first steps towards building machines with a powerful audio-visual simulator that will enable them to imagine complex hypothetical situations, and model the aspects of their surroundings that is not easily perceived.</div><div class="gmail_default" style=""><br></div><div class="gmail_default" style=""><b>Bio: </b>Aayush Bansal is a PhD candidate at the Robotics Institute of Carnegie Mellon University. He is a recipient of Uber Presidential Fellowship (2016-17), Qualcomm Fellowship (2017-18), and Snap Fellowship (2019-20). The production houses such as BBC Studios and PBS are using his research work to create documentaries and short movies. Various national and international media such as NBC, CBS, France TV, and The Journalist have extensively covered his work. More details are <a href="http://www.cs.cmu.edu/~aayushb">here</a>.</div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><span style="font-size:13px;border-collapse:collapse;color:rgb(136,136,136)"><b>Han Zhao<br>Machine Learning Department</b></span></div><div><span style="font-size:13px;border-collapse:collapse;color:rgb(136,136,136)"><b>School of Computer Science<br>Carnegie Mellon University<br>Mobile: +1-</b></span><b style="color:rgb(136,136,136);font-size:13px">412-652-4404</b></div></div></div></div></div></div>