<div dir="ltr">CALL FOR PAPERS  <br>
<br>
<font size="2"><span style="font-size:10pt"></span></font><font size="2">**<span style="font-size:10pt">Apologies for cross posting ** <br><br></span></font><font size="2"><span style="font-size:10pt">The full day workshop:<br></span></font><div>
<b><br></b>"<b><span style="color:rgb(0,0,255)">Representation Learning for Human and Robot Cognition</span></b>"<b><br>
<br>
</b>In conjunction with the <b>5th International Conference on Human-Agent Interaction</b> <b>- Bielefeld - Germany - October </b><b>17th, 2017<br><br></b></div><div><b>Webpage: </b><a href="http://cognitive-mirroring.org/en/events/hai2017_workshop/" target="_blank"><b><span style="color:rgb(0,0,255)">http://cognitive-mirroring.org<wbr>/en/events/hai2017_workshop/</span></b></a></div><br><font size="2">
</font><b><font size="2">I. Aim and Scope </font><br>
<br></b>Creating intelligent and interactive robots has been subject to 
extensive research studies. They are rapidly moving to the center of 
human environment so that they collaborate with human users in 
different applications, which requires high-level cognitive functions so
 as to allow them to understand and learn from human behavior. To this 
end, an important challenge that attracts much attention in cognitive 
science and artificial intelligence, is the “Symbol Emergence” problem, 
which investigates the bottom-up development of symbols through social 
interaction. This research line employs representation learning based 
models for understanding language and action in a developmentally 
plausible manner so as to make robots able to behave appropriately on 
their own. This could open the door to robots to understand syntactic 
formalisms and semantic references of human speech, and to associate 
language knowledge to perceptual knowledge so as to successfully 
collaborate with human users in space.<br><br>Another 
interesting approach to study representation learning is “Cognitive 
Mirroring”, which refers to artificial systems that could make cognitive
 processes observable, such as the models that could learn concepts of 
objects, actions, and/or emotions from humans through interaction. A key
 idea of this approach is that robots learn individual characteristics 
of human cognition rather than acquiring a general representation of 
cognition. In this way, the characteristics of human cognition become 
observable and can be measured as modifications in model parameters, 
which is difficult to verify through neuroscience studies only.<br><br>In
 this workshop, we invite researchers in artificial intelligence, 
cognitive science, cognitive robotics, and neuroscience to share their 
knowledge and research findings on representation learning, and to 
engage in cutting-edge discussions with other experienced researchers so
 as to help promoting this research line in the Human-Agent Interaction (HAI) community.<br><br><b>II. Keynote Speakers  
   <br></b><ol><li><b>  </b><b>Beata Joanna Grzyb </b>– Radboud University – The <span id="gmail-m_9177898055593450491gmail-m_4908767671415339519gmail-m_3776204211398250598gmail-m_-3015332588374480187gmail-m_2116729354646594805gmail-m_-9085810991432375435gmail-m_-8038260122171374740gmail-m_-4732084815175513257gmail-m_-8437691868412106489gmail-result_box" class="gmail-m_9177898055593450491gmail-m_4908767671415339519gmail-m_3776204211398250598gmail-m_-3015332588374480187gmail-m_2116729354646594805gmail-m_-9085810991432375435gmail-m_-8038260122171374740gmail-m_-4732084815175513257gmail-m_-8437691868412106489gmail-short_text" lang="en"><span class="gmail-m_9177898055593450491gmail-m_4908767671415339519gmail-m_3776204211398250598gmail-m_-3015332588374480187gmail-m_2116729354646594805gmail-m_-9085810991432375435gmail-m_-8038260122171374740gmail-m_-4732084815175513257gmail-m_-8437691868412106489gmail-">Netherlands</span></span></li><li>  <b>Thomas Hermann</b>–<b> </b>Bielefeld University – Germany 
</li><li>  <b>Tetsuya Ogata </b>– Waseda University – Japan<br></li><li><b>  </b><b>Erhan Oztop </b>–<b> </b>Ozyegin Universiy – Turkey </li><li><b>  Stefan Wermter </b>–<b> </b>University of Hamburg – Germany </li></ol>
<b><font size="2">III. Submission </font></b><br><ol><li>For paper submission, use the following EasyChair web link: <span style="color:rgb(0,0,0)"><b><a href="https://easychair.org/conferences/?conf=rlhrc2017" target="_blank">Paper Submission</a></b></span>.</li><li>Use the ACM SIGCHI format: <b><a href="http://www.sigchi.org/publications/chipubform" target="_blank">ACM SIGCHI Templates</a></b>.</li><li>Submitted papers should be limited to 2-4 pages maximum.</li></ol><p>    The primary list of topics covers the following points (but not limited to):</p><ul><li>Computational model for high-level cognitive capabilities</li><li>Predictive learning from sensorimotor information</li><li>Multimodal interaction and concept formulation</li><li>Human-robot communication and collaboration based on machine learning</li><li>Learning supported by external trainers by demonstration and imitation</li><li>Bayesian modeling</li><li>Learning with hierarchical and deep architectures</li><li>Interactive reinforcement learning</li></ul><b>
<font size="2">IV. Important Dates </font></b><br><ol><li>Paper submission: <span style="color:rgb(255,0,0)"><b>30-September-2017</b></span></li><li>Notification of acceptance: <span style="color:rgb(255,0,0)"><b>5-</b></span><span style="color:rgb(255,0,0)"><b><span style="color:rgb(255,0,0)"><b><span style="color:rgb(255,0,0)"><b><span style="color:rgb(255,0,0)"><b>October</b></span></b></span></b></span>-2017</b></span></li><li>Workshop: <span style="color:rgb(255,0,0)"><b>17-October-2017</b></span><br></li></ol><b>V. Organizers   </b><br><ol><li><b>  </b><b>Takato Horii </b>– Osaka University – Japan</li><li><b>  </b><b>Amir Aly </b>– Ritsumeikan University – Japan</li><li>  <b>Yukie Nagai </b>– National Institute of Information and Communications Technology – Japan<br></li><li><b>  Takayuki Nagai </b>– The University of Electro-Communications – Japan<span class="gmail-HOEnZb"><font color="#888888"><span class="gmail-m_9177898055593450491gmail-HOEnZb"></span></font></span></li></ol><div class="gmail-yj6qo gmail-ajU"><div id="gmail-:143" class="gmail-ajR" tabindex="0"><img class="gmail-ajT" src="https://ssl.gstatic.com/ui/v1/icons/mail/images/cleardot.gif">-- <br></div></div><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><font size="2"><span><b>Amir Aly, Ph.D.</b><br></span></font><font size="2"><span>Senior Researcher</span></font><font size="2"><span><span><font size="2"><span><span><font size="2"><span><span><font size="2"><span><span><font size="2"><span><br></span></font></span></span></font></span></span></font></span></span></font></span>Emergent Systems Laboratory</span></font><br><font size="2"><span><span><font size="2"><span><span><font size="2"><span></span></font></span></span></font></span>College of Information Science and Engineering</span></font><br><font size="2"><span><span><font size="2"><span><span><font size="2"><span><span><font size="2"><span><span><font size="2"><span><span><font size="2"><span>Ritsumeikan University<br></span></font></span></span></font></span></span></font></span></span></font></span></span></font></span>1-1-1 Noji Higashi, Kusatsu, Shiga 525-8577<br>Japan</span></font></div></div></div></div></div></div></div></div>
</div>