<div dir="ltr"><div>Dear all,</div><div><br></div><div>We look forward to seeing you <b>next Tuesday (10/26)</b> from <b><font color="#ff0000">1</font></b><font color="#ff0000"><b>2:00-1:00 PM (U.S. Eastern time)</b></font> for the next talk of our <b>CMU AI seminar</b>, sponsored by <a href="https://www.morganstanley.com/about-us/technology/" target="_blank">Morgan Stanley</a>.<br></div><div><br></div><div>To learn more about the seminar series or see the future schedule, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">seminar website</a>.</div><div><br></div><font color="#0b5394" style="background-color:rgb(255,255,0)">On 10/26, <b><u>Chen Dan</u></b> (CMU CSD) will be giving a talk on "<b>Sharp Statistical Guarantees for Adversarially Robust Gaussian Classification</b></font><font color="#0b5394" style="background-color:rgb(255,255,0)">".</font><br><br><font color="#0b5394"><b>Title</b>: Sharp Statistical Guarantees for Adversarially Robust Gaussian Classification</font><div><font color="#0b5394"><br></font><div><font color="#0b5394"><b>Talk Abstract</b>: Adversarial robustness has become a fundamental requirement in modern machine learning applications. Yet, there has been surprisingly little statistical understanding so far. In this work, we provide the first result of the optimal minimax guarantees for the excess risk for adversarially robust classification, under a Gaussian mixture model studied by Schmidt et al. 2018. The results are stated in terms of the Adversarial Signal-to-Noise Ratio (AdvSNR), which generalizes a similar notion for standard linear classification to the adversarial setting. We establish an excess risk lower bound and design a computationally efficient estimator that achieves this optimal rate. Our results built upon a minimal set of assumptions while covering a wide spectrum of adversarial perturbations including L_p balls for any p>1. Joint work with Yuting Wei and Pradeep Ravikumar.<br></font><div><font color="#0b5394"><br><b>Speaker Bio</b>:  Chen Dan is a 6th year Ph.D. student at Computer Science Department, Carnegie Mellon University, advised by Pradeep Ravikumar. His research interest is in the broad area of robust statistical learning, with an emphasis on the theoretical understanding and practical algorithms for learning under various types of adversarial distribution shift. Prior to joining CMU, Chen received his bachelor degree from School of EECS, Peking University in 2016.</font></div><div><br></div><div><div><b>Zoom Link</b>: <a href="https://cmu.zoom.us/j/93155268338?pwd=VVZYTFFEMTNLZlJVY1NmU1c3cXUzZz09">https://cmu.zoom.us/j/93155268338?pwd=VVZYTFFEMTNLZlJVY1NmU1c3cXUzZz09</a><br><br>Thanks,<br>Shaojie Bai (MLD)</div></div></div></div></div>