<div dir="ltr"><p style="margin-bottom:0in;line-height:13px">Dear colleagues,</p><p style="margin-bottom:0in;line-height:13px"><br></p>Hereby you are invited to submit a paper to a special session on Multimodal and Lifelong Learning (MALM) organized at ICAART 2019 in Prague,<span class="gmail_default" style="font-size:small"> </span>see: <a href="http://www.icaart.org/MALM.aspx" target="_blank">http://www.icaart.org/MALM.aspx</a><br><br>Modern machine learning has proven to be very successful in unimodal applications (image OR text OR sound). Furthermore, the successes are usually based on idealized training conditions with nicely packaged benchmark tests. The reality of historical-document retrieval is quite different. Optical character recognition is too limited to handle the variety of visual patterns in such image collections: text, graphics, tabular structures, doodles and diverse image problems make this a challenging playing field. Such systems start with zero labels, the labels change over time and the data is neither stationary nor ergodic. This session is intended for researchers who have picked up challenges in multimodal machine learning, possibly even in a time-varying context.<br><br>Topics:<br><br>- Multimodal Deep Learning<br>- Image and Text Correspondence<br>- Data-driven Semantics<br>- Deep Multimodal Semantic Embeddings<br>- Historical Documents<br>- Interactive Data Mining<br><br>Organizers:<br>Prof. dr. Lambert Schomaker, University of Groningen<br>Dr. Marco Wiering, University of Groningen<br><br>IMPORTANT DATES<br><br>Paper Submission: December 20, 2018<br>Authors Notification: January 7, 2019<br>Camera Ready and Registration: January 15, 2019<br>Conference: February 19-21, 2019<br><br>Submitted papers should be between 6 and 12 pages long. Please note that a double-blind reviewing system is used. For more information about paper guidelines, please see:<br><a href="http://www.icaart.org/CallForPapers.aspx" target="_blank">http://www.icaart.org/CallForPapers.aspx</a></div>