<div dir="ltr">CALL FOR PAPERS<br><br>NIPS 2016 Workshop on Learning in High Dimensions with Structure<br>Barcelona, Spain<br>Website: <a href="https://sites.google.com/site/structuredlearning16/">https://sites.google.com/site/structuredlearning16/</a><br><br>==================================================<br>==================================================<br><br><br>IMPORTANT DATES:<br>September 23 : Extended abstracts due<br>October   4  : Notification of acceptance<br>November  22 : Final papers due<br>December  9  : Workshop<br><br><br><br>==================================================<br>==================================================<br><br><br>Several applications necessitate learning a very large number of parameters from small amounts of data, which can lead to overfitting, statistically unreliable answers, and large training/prediction costs.  A common and effective method to avoid the above mentioned issues is to restrict the parameter-space using specific structural constraints such as sparsity or low rank. However, such simple constraints do not fully exploit the richer structure which is available in several applications and is present in the form of correlations, side information or higher order structure. Designing new structural constraints requires close collaboration between domain experts and machine learning practitioners. Similarly, developing efficient and principled algorithms to learn with such constraints requires further collaborations between experts in diverse areas such as statistics, optimization, approximation algorithms etc. This interplay has given rise to a vibrant research area.<br><br>The main objective of this workshop is to consolidate current ideas from diverse areas such as machine learning, signal processing, theoretical computer science, optimization and statistics, clarify the frontiers in this area, discuss important applications and open problems, and foster new collaborations. <br> <br><br>==================================================<br>==================================================<br><br>INVITED SPEAKERS<br><br>Amir Beck (Technion)<br>Sham Kakade (U. Washington)<br>Po-Ling Loh (U. Wisconsin - Madison)<br>Guillaume Obozinski (Ecole des Ponts)<br>Rene Vidal (Johns Hopkins)<br>Allen Yang (UC Berkeley)<br>Rob Nowak (U. Wisconsin - Madison)<br>Richard Samworth (Cambridge)<br><br>==================================================<br>==================================================<br><br>SUBMISSION INSTRUCTIONS<br><br>We invite submissions in the form of 2 page extended abstracts, excluding references, in PDF format and in NIPS style. If accepted, final submissions may be at most 4 pages long, excluding references and supplementary materials.  Submissions will be accepted as poster presentations, and will be published on the workshop website.<br><br>The authors may choose to make their identities visible on the submissions. Submissions should be mailed to <a href="mailto:nips.lhds@gmail.com">nips.lhds@gmail.com</a>. Topics of interest include, but are not limited to:<br>- Algorithms<br>- Online and Reinforcement learning in high dimensions<br>- Submodularity for high dimensional structured learning<br>- Novel regularization frameworks<br>- Theory<br>- Applications, including machine learning, speech and signal processing, computer vision and biostatistics. <br><br><br>==================================================<br>==================================================<br><br>ORGANIZERS<br><br>Nikhil Rao (Technicolor)<br>Prateek Jain (Microsoft)<br>Hsiang-Fu Yu (Amazon)<br>Francis Bach (Ecole Normale Superieure)<br>Ming Yuan (UW Madison)<br></div>