<div dir="ltr"><div><span style="font-size:12.8px;background-color:rgba(255,255,255,0)">Hello everyone,</span><br style="font-size:12.8px"><div style="font-size:12.8px"><span style="background-color:rgba(255,255,255,0)"><br></span></div><div style="font-size:12.8px"><span style="background-color:rgba(255,255,255,0)">This is a reminder that this <span class="">lunch</span> and talk is tomorrow, Tuesday, February 16th.</span></div><div style="font-size:12.8px"><span style="background-color:rgba(255,255,255,0)"><br></span></div><div style="font-size:12.8px"><span style="background-color:rgba(255,255,255,0)">Best,</span></div><div style="font-size:12.8px"><span style="background-color:rgba(255,255,255,0)">Ellen</span></div></div><br><div class="gmail_quote">---------- Forwarded message ----------<br>From: <b class="gmail_sendername">Ellen Vitercik</b> <span dir="ltr"><<a href="mailto:vitercik@cs.cmu.edu">vitercik@cs.cmu.edu</a>></span><br>Date: Wed, Feb 10, 2016 at 7:04 PM<br>Subject: AI Lunch - Pengtao Xie - February 16th, 2016<br>To: <a href="mailto:ai-seminar-announce@cs.cmu.edu">ai-seminar-announce@cs.cmu.edu</a><br><br><br><div dir="ltr"><span style="font-size:12.8px">Dear faculty and students,</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">We </span><span style="font-size:12.8px">look forward to seeing you this Tuesday, February 16th, at noon in NSH 3305 for </span><a href="http://www.cs.cmu.edu/~aiseminar/" style="font-size:12.8px" target="_blank"><span>AI</span> <span>lunch</span></a><span style="font-size:12.8px">. </span><a href="http://www.cs.cmu.edu/~pengtaox/" style="font-size:12.8px" target="_blank">Pengtao Xie</a><span style="font-size:12.8px"> will give a tal</span>k titled "Diversity-Inducing Learning of Latent Variable Models."<br><div><br></div><div><b>Abstract:</b> One central task in machine learning (ML) is to extract underlying patterns, structure and knowledge from data. Latent variable models (LVMs) are principled and effective tools to achieve this goal. Due to the dramatic growth of volume and complexity of big data, several new challenges have emerged and cannot be effectively addressed by existing LVMs: (1) How to capture long-tail patterns that carry crucial information when the popularity of patterns is distributed in a power-law fashion? (2) How to reduce model complexity and computational cost without compromising the modeling power of LVMs? (3) How to improve the interpretability and reduce the redundancy of discovered patterns? To addresses the three challenges, we develop a novel regularization technique for LVMs, which controls the geometry of the latent space during learning to enable the learned latent components of LVMs to be diverse, to accomplish long-tail coverage, low redundancy, and better interpretability. In this talk, I will introduce: 1) how the diversity-inducing mutual angular regularizer (MAR) is defined; 2) how to optimize the MAR which is non-convex and non-smooth; 3) a theoretical analysis of why MAR is effective; 4) the applications of MAR in representation learning and distance metric learning.</div><div><br></div><div>Best,</div><div><br></div><div>Ellen and Ariel</div></div>
</div><br></div>