<div dir="ltr"><div><div><p class="MsoNormal">Dear Colleagues,<br></p><p class="MsoNormal"><br></p><p class="MsoNormal">We are calling for contributions on our ICRA 2017 workshop on "The Robotic Sense of Touch: From Sensing to Understanding"<br></p><p class="MsoNormal"><a href="https://roboticsenseoftouchws.wordpress.com/" target="_blank">https://roboticsenseoftouchws.<wbr>wordpress.com</a><br></p><p class="MsoNormal"><u></u></p></div><div><p class="MsoNormal"><u></u> <u></u></p></div><div><p class="MsoNormal">This workshop aims to bring together experts in the fields of tactile sensor design, tactile data analysis, machine learning and cognitive modeling to share their knowledge, through a mix of oral presentations, round-table discussions, poster sessions and live demonstrations.<u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">***Call for contributions***<u></u></p><p class="MsoNormal">We are soliciting the submission of extended abstracts *<b>(1-3 pages PDF, IEEE template, optional videos)</b> to <a href="mailto:rsot.icra2017@gmail.com" target="_blank"><b>rsot.icra2017@gmail<wbr>.com</b></a>*. *<b>The submission deadline is <span class="gmail-m_-83578992427878874gmail-m_-819462977793347820gmail-m_-3397474771228384610gmail-aqj"><span class="gmail-m_-83578992427878874gmail-m_-819462977793347820gmail-aBn"><span class="gmail-m_-83578992427878874gmail-m_-819462977793347820gmail-aQJ">20 April 2017</span></span></span></b>*. Furthermore, we particularly call for live demonstrations to be presented on the workshop day. We encourage researchers as well as companies (both hardware and software companies) to contribute to the workshop.<u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">Accepted submissions will be presented during the “Demonstrations and poster session” of the workshop. Selected submissions will be given time for oral presentations (15 minutes including Q&A). Please indicate in your email if you want to present as a poster, oral, and/or live demonstration.<u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">***<b>Important Dates**</b>*:<u></u><u></u></p><p class="MsoNormal">Paper submission deadline: <span class="gmail-m_-83578992427878874gmail-m_-819462977793347820gmail-m_-3397474771228384610gmail-aqj">20 April 2017</span><u></u><u></u></p><p class="MsoNormal">Notification of acceptance: <span class="gmail-m_-83578992427878874gmail-m_-819462977793347820gmail-m_-3397474771228384610gmail-aqj">25 April 2017</span><u></u><u></u></p><p class="MsoNormal">Workshop day: <span class="gmail-m_-83578992427878874gmail-m_-819462977793347820gmail-m_-3397474771228384610gmail-aqj">29 May 2017</span><u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">Abstract:<u></u><u></u></p><p class="MsoNormal">This workshop (<a href="https://roboticsenseoftouchws.wordpress.com/" target="_blank">https://roboticsenseoftouchws<wbr>.wordpress.com</a>) focuses on the development of novel tactile sensors (i.e. the bodyware) and how they can contribute to robot intelligence (i.e. the mindware). Robots need touch to interact with the surroundings (humans and/or objects) safely and effectively, to learn about the outside world and to develop self-awareness. To achieve these goals, the artificial skin of the next generation should measure temperature, vibration, proximity and the complete force vectors on multiple contact points; also, it should be both soft and robust to facilitate long-term interactions. Still, major challenges are posed by the need to analyze and interpret massive amounts of data in a fast and accurate way, and to combine such sensing information with other cognitive and perceptual processes to achieve real understanding. While advanced computational techniques (e.g. deep learning, Bayesian inference) can critically improve data representations, bio-inspired strategies for multimodal integration, prediction and reasoning seem to be necessary as well to revolutionize the robotic sense of touch. Therefore, the goal of this workshop is to discuss if and how the recent advancements in tactile technology and data analysis have been accompanied by an increased understanding of the ways in which tactile perception can support robot autonomy and cognition.<u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">Content:<u></u><u></u></p><p class="MsoNormal">Part of human intelligence comes from using the sense of touch to explore the own-body and learn about the world. Similarly, a humanoid robot can use tactile sensing to learn about itself and its surroundings, and to improve its ability in interacting with humans and objects. Indeed, there has been a remarkable progress in tactile sensors for robotics. Several robotic platforms and hands are equipped with sensors which allow measuring pressure, proximity and temperature; also, novel technologies (soft, small, distributed, stretchable sensors) can be used to cover the entire body of a humanoid. These sensors can allow robots to actively explore objects and extract information which is hidden or difficult to extract from vision, like texture, material and weight; however, this requires the development of appropriate learning strategies which incorporate explorative behaviors, signal processing and machine learning.<u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">Topics of interest include, but are not limited to:<u></u><u></u></p><p class="MsoNormal">- Multimodal distributed skin sensors;<u></u><u></u></p><p class="MsoNormal">- Modular skin sensors;<u></u><u></u></p><p class="MsoNormal">- Force sensing;<u></u><u></u></p><p class="MsoNormal">- Soft/flexible/stretchable sensors;<u></u><u></u></p><p class="MsoNormal">- Large-scale data processing of tactile information;<u></u><u></u></p><p class="MsoNormal">- Use of tactile data for interaction control, tactile servoing, tactile feature recognition, object handling;<u></u><u></u></p><p class="MsoNormal">- Integration of touch with other sensing modalities (e.g. vision, inertial sensing);<u></u><u></u></p><p class="MsoNormal">- Whole-body multiple contact behaviors of humanoid robots;<u></u><u></u></p><p class="MsoNormal">- Predictive models for touch perception;<u></u><u></u></p><p class="MsoNormal">- Slip prediction, detection and control;<u></u><u></u></p><p class="MsoNormal">- Tactile sensing for self-contact, self-perception and self-calibration in humanoid robots;<u></u><u></u></p><p class="MsoNormal">- Haptic representations of objects and their affordances.<u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">Organizers:<u></u><u></u></p><p class="MsoNormal">Sophon Somlor (contact person), Waseda University<u></u><u></u></p><p class="MsoNormal">Alexander Schmitz, Waseda University<u></u><u></u></p><p class="MsoNormal">Lorenzo Jamone, The Queen Mary University of London<u></u><u></u></p><p class="MsoNormal"><span lang="IT">Lorenzo Natale, Istituto Italiano di Tecnologia</span><u></u><u></u></p><p class="MsoNormal">Gordon Cheng, Technical University of Munich<u></u><u></u></p><p class="MsoNormal"> <u></u><u></u></p><p class="MsoNormal">***URL***<u></u><u></u></p><p class="MsoNormal"><a href="https://roboticsenseoftouchws.wordpress.com/" target="_blank">https://roboticsenseoftouchws.<wbr>wordpress.com/</a></p></div></div><br clear="all"><div><div class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div>Best regards,</div><div>Sophon SOMLOR<br></div><div><br></div><div>Research Associate</div><div>Top Global University (TGU), Frontier of Embodiment Informatics: ICT and Robotics</div><div>Member of Sugano Shigeki Laboratory</div><div>Department of Modern Mechanical Engineering, School of Creative Science and Engineering</div><div>Waseda University</div><div><br></div><div>早稲田大学大学院 創造理工学研究科 総合機械工学専攻</div><div>菅野重樹研究室 </div><div>スーパーグローバル大学創成支援 (SGU)・ICTロボット工学拠点の研究助手</div><div>ソムロア ソフォン</div><div>================================================</div></div></div></div></div></div>
</div>