<div dir="ltr">Dear all,<div><br></div><div><div>We look forward to seeing you <b>this Tuesday (2/27)</b> from <b><font color="#ff0000">1</font></b><font color="#ff0000"><b>2:00-1:00 PM (U.S. Eastern time)</b></font> for the next talk of this semester's <b>CMU AI Seminar</b>, sponsored by <a href="https://sambanova.ai/" target="_blank">SambaNova Systems</a>. The seminar will be held in GHC 6115 <b>with pizza provided </b>and will<b> </b>be streamed on Zoom.</div><div><br></div><div>To learn more about the seminar series or to see the future schedule, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">seminar website</a>.</div><div><br></div><font color="#0b5394"><span style="background-color:rgb(255,255,0)">On this Tuesday (2/27), <u>Xiangxiang Xu</u> </span><span style="background-color:rgb(255,255,0)">(MIT) will be giving a talk titled </span><b style="background-color:rgb(255,255,0)">"</b></font><span style="background-color:rgb(255,255,0)"><font color="#0b5394"><b>A Geometric Perspective of Feature Learning</b></font></span><b style="color:rgb(11,83,148);background-color:rgb(255,255,0)">"</b><font color="#0b5394" style="background-color:rgb(255,255,0)">.</font></div><div><font color="#0b5394"><span style="background-color:rgb(255,255,0)"><br></span><b>Title</b>: </font>A Geometric Perspective of Feature Learning<font color="#0b5394"><br><br></font><div><font color="#0b5394"><b>Talk Abstract</b>: </font>In this talk, we present a geometric framework for learning and processing information with deep neural networks. We introduce feature geometry, which unifies statistical dependence and feature representations in a function space. We formulate each learning problem as solving the optimal feature representation of the associated dependence component. We will illustrate how this perspective connects distinct learning problems and provides more adaptable solutions, from classification/estimation to feature selection/extraction. We also demonstrate its applications in complicated learning scenarios, including dealing with constraints and incomplete data, incorporating side information, and learning the dependence structures of sequential data.</div></div><div><font color="#0b5394"> </font><div><div><div><font color="#0b5394"><b>Speaker Bio:</b> </font>Xiangxiang Xu received the B.Eng. and Ph.D. degrees in electronic engineering from Tsinghua University, Beijing, China, in 2014 and 2020, respectively. He is a postdoctoral associate in the Department of EECS at MIT. His research focuses on information theory and statistical learning, with applications in understanding and developing learning algorithms.</div><div><font color="#0b5394"><br></font></div><div><font color="#0b5394"><b>In person: </b>GHC 6115</font></div><div><font color="#0b5394"><b>Zoom Link</b>:  <a href="https://cmu.zoom.us/j/99510233317?pwd=ZGx4aExNZ1FNaGY4SHI3Qlh0YjNWUT09" target="_blank">https://cmu.zoom.us/j/99510233317?pwd=ZGx4aExNZ1FNaGY4SHI3Qlh0YjNWUT09</a></font></div></div></div></div><div><br></div><div>Thanks,</div><div>Asher Trockman</div></div>