<div dir="ltr"><div class="gmail_quote"><div dir="ltr"><div>Hello everyone,</div><div><br></div>Apologies for inevitable cross-postings. We are pleased to announce another installment of the Bayesian optimization workshop! This year our theme is Black-box optimization and Beyond (see below for a description). Please visit<span> </span><a href="http://bayesopt.com/" target="_blank">http://bayesopt.com/</a><span> </span>for more details. Hope to see you there!<br><br>==============================================<br>Call for Papers<br>Bayesian Optimization: Black-box Optimization and Beyond<br>Date: December 10, 2016<br>Location: Barcelona, Spain (part of the NIPS 2016 workshops)<br>Submission Deadline:<span> </span><b>October 16, 2016</b><br>Website:<span> </span><a href="http://bayesopt.com/" target="_blank">http://bayesopt.com/</a><br>==============================================<br><br>### Important dates:<br>Submission deadline: 16 October (11:59 pm PST)<br>Author notification: 2 November<br>Camera-ready: 4 December<div><br></div>### Abstract:<span> </span><br>Classically, Bayesian optimization has been used purely for expensive single-objective black-box optimization. However, with the increased complexity of tasks and applications, this paradigm is proving to be too restricted. Hence, this year’s theme for the workshop will be “black-box optimization and beyond”. Among the recent trends that push beyond BO we can briefly enumerate: - Adapting BO to not-so-expensive evaluations. - “Open the black-box” and move away from viewing the model as a way of simply fitting a response surface, and towards modelling for the purpose of discovering and understanding the underlying process. For instance, this so-called grey-box modelling approach could be valuable in robotic applications for optimizing the controller, while simultaneously providing insight into the mechanical properties of the robotic system. - “Meta-learning”, where a higher level of learning is used on top of BO in order to control the optimization process and make it more efficient. Examples of such meta-learning include learning curve prediction, Freeze-thaw Bayesian optimization, online batch selection, multi-task and multi-fidelity learning. - Multi-objective optimization where not a single objective, but multiple conflicting objectives are considered (e.g., prediction accuracy vs training time).<br><br>### Invited speakers and panelists:<br>- Joshua Knowles (University of Birmingham)<br>- Jasper Snoek (Twitter)<br>- Marc Toussaint (University of Stuttgart)<br>- Roman Garnett (Washington University in St. Louis)<br>- Will Welch (University of British Columbia)<br>- Katharina Eggensperger (University of Freiburg)<br><br>### Organizers:<br>- Roberto Calandra (UC Berkeley)<br>- Bobak Shahriari (University of British Columbia)<br>- Javier Gonzalez (Amazon)<br>- Frank Hutter (University of Freiburg)<br>- Ryan P. Adams (Harvard University)<div><br></div><div>Looking forward to seeing many of you in Barcelona!</div><div><br></div><div>Roberto, Bobak, Javier, Frank, and Ryan</div></div></div></div>