<div dir="ltr"><div>Dear all,<br><br>We look forward to seeing you <b>next Tuesday (11/23)</b> from <b><font color="#ff0000">1</font></b><font color="#ff0000"><b>2:00-1:00 PM (U.S. Eastern time)</b></font> for the next talk of our <b>CMU <span class="gmail-il">AI</span> <span class="gmail-il">Seminar</span></b>, sponsored by <a href="https://www.morganstanley.com/about-us/technology/" target="_blank">Morgan Stanley</a>.<br><br>To learn more about the <span class="gmail-il">seminar</span> series or see the future schedule, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank"><span class="gmail-il">seminar</span> website</a>.<br><br><font color="#0b5394" style="background-color:rgb(255,255,0)">On 11/23, <b><u>Eric Wallace</u></b> (UC Berkeley) will be giving a talk on "<b>What can we learn from vulnerabilities of ML models</b></font><font color="#0b5394" style="background-color:rgb(255,255,0)">" and sharing his latest research on large-scale NLP models and their vulnerabilities.</font></div><div><br><font color="#0b5394"><b>Title:</b> 

What Can We Learn From Vulnerabilities of ML Models?<br><br><b>Talk Abstract:</b> Today's neural network models achieve high accuracy on in-distribution data and are being widely deployed in production systems. This talk will discuss attacks on such models that not only expose worrisome security and privacy vulnerabilities, but also provide new perspectives into how and why the models work. Concretely, I will show how realistic adversaries can extract secret training data, steal model weights, and manipulate test predictions, all using black-box access to models at either training- or test-time. These attacks will reveal different insights, including how NLP models rely on dataset biases and spurious correlations, and how their training dynamics impact memorization of examples. Finally, I will discuss defenses against these vulnerabilities and suggest practical takeaways for developing secure ML systems.</font></div><div><font color="#0b5394"><br><b>Speaker Bio: </b>Eric Wallace<b> </b>is a 3rd year PhD student at UC Berkeley advised by Dan Klein and Dawn Song. His research interests center around large language models and making them more secure, private, and robust. Eric's work received the best demo award at EMNLP 2019.</font><br><br><b>Zoom Link: </b><a href="https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09" target="_blank" style="color:rgb(26,115,232);font-family:Roboto,Helvetica,Arial,sans-serif;font-size:14px;white-space:pre-wrap">https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09</a></div><div><br></div><div>Best,</div><div>Shaojie Bai (MLD)</div></div>