<div dir="ltr">Dear all,<div><br></div><div><div>We look forward to seeing you <b>this coming Tuesday (11/8)</b> from <b><font color="#ff0000">1</font></b><font color="#ff0000"><b>2:00-1:00 PM (U.S. Eastern time)</b></font> for the next talk of this semester's <b>CMU AI Seminar</b>, sponsored by <a href="https://sambanova.ai/" target="_blank">SambaNova Systems</a>. The seminar will be held in NSH 3305 <b>with pizza provided </b>and will<b> </b>be streamed on Zoom.</div><div><br></div><div>To learn more about the seminar series or to see the future schedule, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">seminar website</a>.</div><div><br></div><font color="#0b5394"><span style="background-color:rgb(255,255,0)">On 11/8, </span></font><span style="background-color:rgb(255,255,0)"><font color="#0b5394"><b><u>Aditi Raghunathan</u></b></font></span><font color="#0b5394"><b style="background-color:rgb(255,255,0)"> </b><span style="background-color:rgb(255,255,0)">(CMU) will be giving a talk titled </span><b style="background-color:rgb(255,255,0)">"</b></font><span style="background-color:rgb(255,255,0)"><font color="#0b5394"><b>Robustness in the era of large pretrained models</b></font></span><font color="#0b5394"><b style="background-color:rgb(255,255,0)">".</b></font></div><div><font color="#0b5394"><span style="background-color:rgb(255,255,0)"><br></span><b>Title</b>: Robustness in the era of large pretrained models</font><div><font color="#0b5394"><br></font><div><font color="#0b5394"><b>Talk Abstract</b>: Machine learning systems often fail catastrophically under the presence of distribution shift—when the test distribution differs in some systematic way from the training distribution. This notion of robustness has remained an open challenge. </font><span style="color:rgb(11,83,148)">The past few years have seen the rise of large models trained on broad data at scale that can be adapted to several downstream tasks (e.g. BERT, GPT, DALL-E). In this talk, via theory and experiments, we will discuss how such models open up new avenues, but also require new techniques for improving robustness.</span></div><div><div><font color="#0b5394"><br><b>Speaker Bio</b>: Aditi Raghunathan is an assistant professor of computer science at Carnegie Mellon University. She is interested in building robust ML systems with guarantees for trustworthy real-world deployment. Previously, she was a postdoctoral researcher at Berkeley AI Research, and received her PhD from Stanford University in 2021. Her research has been recognized by the Arthur Samuel Best Thesis Award at Stanford, a Google PhD fellowship in machine learning, and an Open Philanthropy AI fellowship.</font><div><br></div><div><b>In person: </b>NSH 3305</div><div><b>Zoom Link</b>:  <a href="https://cmu.zoom.us/j/99510233317?pwd=ZGx4aExNZ1FNaGY4SHI3Qlh0YjNWUT09" target="_blank">https://cmu.zoom.us/j/99510233317?pwd=ZGx4aExNZ1FNaGY4SHI3Qlh0YjNWUT09</a></div></div></div></div></div><div><br></div><div>Thanks,</div><div>Asher Trockman</div></div>