<div dir="ltr">Dear all,<div><br></div><div>Eric Wallace's (UC Berkeley) talk on large-scale NLP models and robustness is starting now! Zoom: <a href="https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09" target="_blank" style="color:rgb(26,115,232);font-family:Roboto,Helvetica,Arial,sans-serif;font-size:14px;white-space:pre-wrap">https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09</a></div><div><br></div><div>Best,</div><div>Shaojie</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Nov 22, 2021 at 4:10 PM Shaojie Bai <<a href="mailto:shaojieb@cs.cmu.edu">shaojieb@cs.cmu.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr">Hi all,<div><br></div><div><span>Just</span> a <span>reminder</span> that the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">CMU <span>AI</span> <span>Seminar</span></a> is tomorrow <font color="#ff0000"><b>12pm-1pm</b></font>: <a href="https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09" style="color:rgb(26,115,232);font-family:Roboto,Helvetica,Arial,sans-serif;font-size:14px;white-space:pre-wrap" target="_blank">https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09</a>. </div><div><br></div><div><b>Eric Wallace</b> (UC Berkeley) will be talking about large-scale NLP models and the their vulnerabilities (see below)!</div><div><br></div><div>--------------------------------------</div><div><div><font color="#0b5394"><b>Title:</b>  What Can We Learn From Vulnerabilities of ML Models?<br><br><b>Talk Abstract:</b> Today's neural network models achieve high accuracy on in-distribution data and are being widely deployed in production systems. This talk will discuss attacks on such models that not only expose worrisome security and privacy vulnerabilities, but also provide new perspectives into how and why the models work. Concretely, I will show how realistic adversaries can extract secret training data, steal model weights, and manipulate test predictions, all using black-box access to models at either training- or test-time. These attacks will reveal different insights, including how NLP models rely on dataset biases and spurious correlations, and how their training dynamics impact memorization of examples. Finally, I will discuss defenses against these vulnerabilities and suggest practical takeaways for developing secure ML systems.</font></div><div><font color="#0b5394"><br><b>Speaker Bio: </b>Eric Wallace<b> </b>is a 3rd year PhD student at UC Berkeley advised by Dan Klein and Dawn Song. His research interests center around large language models and making them more secure, private, and robust. Eric's work received the best demo award at EMNLP 2019.</font></div></div><div>--------------------------------------<font color="#0b5394"><br></font></div><div><br></div><div>Thanks and Happy Thanksgiving,</div><div>Shaojie</div></div><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Fri, Nov 19, 2021 at 12:51 PM Shaojie Bai <<a href="mailto:shaojieb@cs.cmu.edu" target="_blank">shaojieb@cs.cmu.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div>Dear all,<br><br>We look forward to seeing you <b>next Tuesday (11/23)</b> from <b><font color="#ff0000">1</font></b><font color="#ff0000"><b>2:00-1:00 PM (U.S. Eastern time)</b></font> for the next talk of our <b>CMU <span>AI</span> <span>Seminar</span></b>, sponsored by <a href="https://www.morganstanley.com/about-us/technology/" target="_blank">Morgan Stanley</a>.<br><br>To learn more about the <span>seminar</span> series or see the future schedule, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank"><span>seminar</span> website</a>.<br><br><font color="#0b5394" style="background-color:rgb(255,255,0)">On 11/23, <b><u>Eric Wallace</u></b> (UC Berkeley) will be giving a talk on "<b>What can we learn from vulnerabilities of ML models</b></font><font color="#0b5394" style="background-color:rgb(255,255,0)">" and sharing his latest research on large-scale NLP models and their vulnerabilities.</font></div><div><br><font color="#0b5394"><b>Title:</b> 

What Can We Learn From Vulnerabilities of ML Models?<br><br><b>Talk Abstract:</b> Today's neural network models achieve high accuracy on in-distribution data and are being widely deployed in production systems. This talk will discuss attacks on such models that not only expose worrisome security and privacy vulnerabilities, but also provide new perspectives into how and why the models work. Concretely, I will show how realistic adversaries can extract secret training data, steal model weights, and manipulate test predictions, all using black-box access to models at either training- or test-time. These attacks will reveal different insights, including how NLP models rely on dataset biases and spurious correlations, and how their training dynamics impact memorization of examples. Finally, I will discuss defenses against these vulnerabilities and suggest practical takeaways for developing secure ML systems.</font></div><div><font color="#0b5394"><br><b>Speaker Bio: </b>Eric Wallace<b> </b>is a 3rd year PhD student at UC Berkeley advised by Dan Klein and Dawn Song. His research interests center around large language models and making them more secure, private, and robust. Eric's work received the best demo award at EMNLP 2019.</font><br><br><b>Zoom Link: </b><a href="https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09" style="color:rgb(26,115,232);font-family:Roboto,Helvetica,Arial,sans-serif;font-size:14px;white-space:pre-wrap" target="_blank">https://cmu.zoom.us/j/96673560117?pwd=WHFMWERjWkphbnlNMWl2cmk5aE1QZz09</a></div><div><br></div><div>Best,</div><div>Shaojie Bai (MLD)</div></div>
</blockquote></div>
</blockquote></div>