<div dir="ltr"><p style="font-size:12.8px;line-height:1.38;margin-top:0pt;margin-bottom:0pt;text-align:center"><span style="font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap"><font size="1">[apologies for cross-posting]</font></span></p><p style="font-size:12.8px;line-height:1.38;margin-top:0pt;margin-bottom:0pt;text-align:center"><span style="font-size:16px;font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap"><br></span></p><p dir="ltr" style="font-size:12.8px;line-height:1.38;margin-top:0pt;margin-bottom:0pt;text-align:center"><span style="font-size:16px;font-family:arial;color:rgb(0,0,0);background-color:transparent;font-weight:700;vertical-align:baseline;white-space:pre-wrap">International <span class="gmail-m_231935395052702923gmail-il">Workshop</span> on <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">Deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">Learning</span> for Music</span></p><p dir="ltr" style="font-size:12.8px;line-height:1.38;margin-top:0pt;margin-bottom:0pt;text-align:center"><span style="font-size:14.6667px;font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap">In conjunction with the 2017 International Joint Conference on Neural Networks </span></p><p dir="ltr" style="font-size:12.8px;line-height:1.38;margin-top:0pt;margin-bottom:0pt;text-align:center"><span style="font-size:14.6667px;font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap">(IJCNN 2017))</span></p><br style="font-size:12.8px"><p dir="ltr" style="font-size:12.8px;line-height:1.38;margin-top:0pt;margin-bottom:0pt;text-align:center"><span style="font-size:14.6667px;font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap">18-19 May, Anchorage</span></p><p style="font-size:12.8px;line-height:1.38;margin-top:0pt;margin-bottom:0pt;text-align:center"><a href="http://dorienherremans.com/dlm2017/" target="_blank">More info</a></p><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><span style="font-size:14.6667px;font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap"><span id="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-m_-8644710822012710773gmail-m_-8952224694562584284gmail-m_-3949242688091976987gmail-docs-internal-guid-ccb3d90f-b5c5-44d1-09a9-a7f7a11070e5"><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline">There has been tremendous interest in <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learning</span> across many fields of study. Recently, these techniques have gained popularity in the field of music. Projects such as Magenta (Google's Brain Team's music generation project), Jukedeck and others testify to their potential.</span></p><br><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline">While humans can rely on their intuitive understanding of musical patterns and the relationships between them, it remains a challenging task for computers to capture and quantify musical structures. Recently, researchers have attempted to use <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learning</span> models to <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learn</span> features and relationships that allow us to accomplish tasks in music transcription, audio feature extraction, emotion recognition, music recommendation, and automated music generation. </span></p><br><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline">With this <span class="gmail-m_231935395052702923gmail-il">workshop</span> we aim to advance the state-of-the-art in machine intelligence for music by bringing together researchers in the field of music and <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learning</span>. This will enable us to critically review and discuss cutting-edge-research so as to identify grand challenges, effective methodologies, and potential new applications.</span></p><div><br></div><br><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);font-weight:700;vertical-align:baseline">Topics</span><span style="font-size:14.6667px;vertical-align:baseline"> </span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">Papers</span></span> and <span class="gmail-m_231935395052702923gmail-il">abstracts</span> on the application of <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learning</span> techniques on music are welcomed, including but not limited to: </span></p><ul style="margin-top:0pt;margin-bottom:0pt"><li dir="ltr" style="margin-left:15px;list-style-type:disc;font-size:14.6667px;background-color:transparent;vertical-align:baseline"><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">Deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learning</span> applications for computational music research</span></p></li><li dir="ltr" style="margin-left:15px;list-style-type:disc;font-size:14.6667px;background-color:transparent;vertical-align:baseline"><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline">Modeling hierarchical and long term music structures using <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learning</span></span></p></li><li dir="ltr" style="margin-left:15px;list-style-type:disc;font-size:14.6667px;background-color:transparent;vertical-align:baseline"><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline">Modeling ambiguity and preference in music</span></p></li><li dir="ltr" style="margin-left:15px;list-style-type:disc;font-size:14.6667px;background-color:transparent;vertical-align:baseline"><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline">Software frameworks and tools for <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">deep</span></span> <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">learning</span> in music</span></p></li></ul><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal">More info</a></span></span></div><div style="font-size:12.8px"><span style="font-size:14.6667px;font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap"><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;font-weight:700;vertical-align:baseline"><br></span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;font-weight:700;vertical-align:baseline"><br class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-m_-8644710822012710773gmail-m_-8952224694562584284gmail-Apple-interchange-newline">Invited speakers</span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline"><span style="font-size:14.6667px">Invited speakers include Dr. Oriol Nieto (</span><b style="font-size:14.6667px"><i>Pandora</i></b><span style="font-size:14.6667px">)</span>, Prof. Dr. Douglas Eck (the Head of the <b><i>Google</i></b> Magenta team) (tentatively confirmed), and Dr. Kat Agres (<i><b>A*STAR</b></i> Institute of High Performance Computing). </span></p><div><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline"><br></span></div></span></div><div style="font-size:12.8px"><span style="font-size:14.6667px;font-family:arial;color:rgb(0,0,0);background-color:transparent;vertical-align:baseline;white-space:pre-wrap"><br><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);font-weight:700;vertical-align:baseline">Submissions of <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">Papers</span></span></span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">Papers</span></span> of up to 5 pages using the following template are welcomed for a talk. Submissions will be evaluated according to their originality, technical soundness, and relevance to the <span class="gmail-m_231935395052702923gmail-il">workshop</span>. The guidelines outlined in the <span class="gmail-m_231935395052702923gmail-il">workshop</span>’s latex <a href="http://dorienherremans.com/dlm2017/dlm17template.zip" target="_blank">template</a> should be followed. Contributions should be in PDF format and submitted to </span><a href="mailto:d.herremans@qmul.ac.uk" target="_blank" style="text-decoration:none"><span style="font-size:14.6667px;text-decoration:underline;vertical-align:baseline">d.herremans@qmul.ac.uk</span></a><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"> with the subject line: [DLM17 <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">paper</span> submission]. </span><span style="font-size:14.6667px;vertical-align:baseline">Submissions do not need to be anonymised. </span><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">Papers</span></span> will be peer-reviewed and published in the proceedings of the <span class="gmail-m_231935395052702923gmail-il">workshop</span>. </span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline"><br></span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);font-weight:700;vertical-align:baseline">Submissions of <span class="gmail-m_231935395052702923gmail-il">Abstracts</span></span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Structured <span class="gmail-m_231935395052702923gmail-il">abstracts</span> of max 2 pages can be submitted for a shorter talk. The <span class="gmail-m_231935395052702923gmail-il">abstracts</span> should follow the same template as the <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il"><span class="gmail-m_231935395052702923gmail-il">papers</span></span> and will be included in the proceedings. <span class="gmail-m_231935395052702923gmail-il">Abstracts</span> should be in PDF format and submitted to </span><a href="mailto:d.herremans@qmul.ac.uk" target="_blank" style="text-decoration:none"><span style="font-size:14.6667px;text-decoration:underline;vertical-align:baseline">d.herremans@qmul.ac.uk</span></a><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"> with the subject line: [DLM17 <span class="gmail-m_231935395052702923gmail-il">abstract</span> submission]. </span><span style="font-size:14.6667px;background-color:transparent;vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-il">Abstracts</span> will be peer-reviewed and included in the proceedings of the <span class="gmail-m_231935395052702923gmail-il">workshop</span>. </span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><br></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);font-weight:700;vertical-align:baseline">Special Issue in Journal</span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Authors will be invited to submit a full <span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">paper</span> version of their extended <span class="gmail-m_231935395052702923gmail-il">abstract</span> for a special issue in an indexed journal (such as Journal of New Music Research or IEEE Transactions on Neural Networks (tbc)). More details on this will be available soon. </span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);font-weight:700;vertical-align:baseline"><br class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-m_-8644710822012710773gmail-m_-8952224694562584284gmail-m_-3949242688091976987gmail-Apple-interchange-newline">Important Dates</span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-m_-2010729269265642349gmail-m_-8745836661573943923gmail-il">Paper</span> Submission Deadline: </span><span style="font-size:14.6667px;color:rgb(255,0,0);vertical-align:baseline">February 28th</span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Acceptance Notification: </span><span style="font-size:14.6667px;color:rgb(255,0,0);vertical-align:baseline">March 12th</span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Final versions due: March 23, 2017</span></p><p dir="ltr" style="font-size:14.6667px;line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-il">Workshop</span> </span><span style="font-size:14.6667px;vertical-align:baseline">Date: one day dur</span><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">ing conference May 14-19, 2017</span></p><br style="font-size:14.6667px"><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="color:rgb(68,68,68);font-size:14.6667px;font-weight:700;background-color:transparent">Registration</span><br></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"><span class="gmail-m_231935395052702923gmail-il">Workshop</span> registration will be handled by the main conference, please check IJCNN for more details. </span></p><br><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);font-weight:700;vertical-align:baseline">Organizers</span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Dorien Herremans (Queen Mary University of London, UK)</span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Ching-Hua Chuan (University of North-Florida, US)</span></p><br><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);font-weight:700;vertical-align:baseline">Programme Committee</span><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline"> </span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Dorien Herremans (Queen Mary University of London, UK)</span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Ching-Hua Chuan (University of North-Florida, US)</span></p><p style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Louis Bigo (Université Lille 3, France)</span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(68,68,68);vertical-align:baseline">Maarten Grachten (</span><span style="font-size:14.6667px;color:rgb(84,84,84);vertical-align:baseline">Austrian Research Institute for Artificial Intelligence, Austria)</span></p><p dir="ltr" style="line-height:1.38;margin-top:0pt;margin-bottom:0pt"><span style="font-size:14.6667px;color:rgb(84,84,84);vertical-align:baseline">Sebastian Stober (University of Potsdam, Germany)</span></p><br><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal">More info<br clear="all"><div><br></div>-- <br></a><div class="gmail_signature" data-smartmail="gmail_signature"><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal"></a><div dir="ltr"><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal"></a><div><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal"></a><div dir="ltr"><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal"></a><div><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal"><div dir="ltr" style="font-size:small"><span style="font-size:12.8px;font-family:tahoma,sans-serif"><font size="1">Dorien Herremans, PhD</font></span></div><div dir="ltr" style="font-size:small"><span style="font-size:12.8px;font-family:tahoma,sans-serif"><font size="1">Marie-Curie Fellow</font></span></div></a><div dir="ltr"><a href="http://dorienherremans.com/dlm2017/" target="_blank" style="font-family:arial,sans-serif;font-size:small;text-align:center;white-space:normal"><span style="font-size:12.8px;font-family:tahoma,sans-serif"><font size="1"></font></span></a><font size="1"><a href="http://dorienherremans.com/" target="_blank">http://dorienherremans.com</a><br><br>Queen Mary University of London<br>School of Electronic Engineering and Computer Science</font><div style="font-size:small"><font face="tahoma, sans-serif" size="1">C4DM - Centre for Digital Music, London</font></div><div><br></div><div><font size="1"><a href="http://dorienherremans.com/dlm2017" target="_blank">Workshop on Deep Learning and Music</a>, May'17 Anchorage, Alaska. </font></div></div></div></div></div></div></div>
 </span></div>
</div>