<div dir="ltr"><div style="font-size:12.8px">Dear faculty and students,</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">We look forward to seeing you next Tuesday, Nov 28, at noon in NSH 3305 for AI Seminar sponsored by Apple. To learn more about the seminar series, please visit the AI Seminar <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">webpage</a>.</div><div style="font-size:12.8px"><br></div><div><span style="font-size:12.8px">On Tuesday, <a href="http://bamos.github.io/">Brandon Amos</a> will give the following talk: </span></div><div style="font-size:12.8px"><br></div><div><div><span style="font-size:12.8px">Title: Modern Convex Optimization within Deep Learning</span></div><div style="font-size:12.8px"><span style="font-size:12.8px"><br></span></div><div style="font-size:12.8px"><span style="font-size:12.8px">Abstract: </span></div><div style="font-size:12.8px"><span style="font-size:12.8px"><br></span></div><div style="font-size:12.8px"><span style="font-size:12.8px">This talk discusses a new paradigm for deep learning that integrates the solution of optimization problems "into the loop." We highlight two challenges present in today's deep learning landscape that involve adding structure to the input or latent space of a model. We will discuss how to overcome some of these challenges with the use of learnable optimization sub-problems that subsume standard architectures and layers. These architectures obtain state-of-the-art empirical results in many domains such as continuous action reinforcement learning and tasks that involve learning hard constraints like the game Sudoku.</span><br></div><div style="font-size:12.8px"><span style="font-size:12.8px"><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">We will cover topics from these two papers:</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">1. Input Convex Neural Networks. Brandon Amos, Lei Xu, J. Zico Kolter. ICML 2017. <a href="https://arxiv.org/abs/1609.07152">https://arxiv.org/abs/1609.07152</a>.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">2. OptNet: Differentiable Optimization as a Layer in Neural Networks. Brandon Amos, J. Zico Kolter. ICML 2017. <a href="https://arxiv.org/abs/1703.00443">https://arxiv.org/abs/1703.00443</a>.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Joint work with J. Zico Kolter.</div></span></div><div style="font-size:12.8px"><div style="font-size:12.8px"><div style="font-size:12.8px"><div style="font-size:12.8px"><div style="font-size:12.8px"><br></div></div></div></div></div></div></div>