<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><META HTTP-EQUIV="Content-Type" CONTENT="text/html; charset=us-ascii"><meta name=Generator content="Microsoft Word 15 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        font-size:11.0pt;
        font-family:"Calibri",sans-serif;
        mso-ligatures:standardcontextual;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:#0563C1;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri",sans-serif;
        mso-ligatures:standardcontextual;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 72.0pt 72.0pt 72.0pt;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-US link="#0563C1" vlink="#954F72" style='word-wrap:break-word'><div class=WordSection1><p class=MsoNormal>=================================<o:p></o:p></p><p class=MsoNormal>ACM ICMI 2023 2ND CALL FOR PAPERS    <o:p></o:p></p><p class=MsoNormal>=================================<o:p></o:p></p><p class=MsoNormal>9-13 October 2023, Paris - France<o:p></o:p></p><p class=MsoNormal><a href="https://icmi.acm.org/2023/">https://icmi.acm.org/2023/</a><o:p></o:p></p><p class=MsoNormal>=================================<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>The 25th International Conference on Multimodal Interaction (ICMI 2023) will be held in Paris, France. ICMI is the premier international forum that brings together multimodal artificial intelligence (AI) and social interaction research. Multimodal AI encompasses technical challenges in machine learning and computational modeling such as representations, fusion, data and systems. The study of social interactions englobes both human-human interactions and human-computer interactions.  A unique aspect of ICMI is its multidisciplinary nature which values both scientific discoveries and technical modeling achievements, with an eye towards impactful applications for the good of people and society. <o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>This year, the conference is pleased to welcome 3 keynote speakers:<o:p></o:p></p><p class=MsoNormal>* Maja Mataric (Interaction Lab, University of Southern California)<o:p></o:p></p><p class=MsoNormal>* Sophie Scott (Institute of Cognitive Neuroscience, University College London)<o:p></o:p></p><p class=MsoNormal>* Simone Natale (University of Turin)<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>We are keen to showcase novel input and output modalities and interactions to the ICMI community. ICMI 2023 will feature a single-track main conference which includes: keynote speakers, technical full and short papers (including oral and poster presentations), demonstrations, exhibits, doctoral spotlight papers, and late-breaking papers. The conference will also feature workshops and grand challenges. The proceedings of all ICMI 2023 papers, including Long and Short Papers, will be published by ACM as part of their series of International Conference Proceedings and Digital Library, and the adjunct proceedings will feature the workshop papers.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Novelty will be assessed along two dimensions: scientific novelty and technical novelty. Accepted papers at ICMI 2023 will need to be novel along one of the two dimensions:<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>* Scientific Novelty: Papers should bring new scientific knowledge about human social interactions, including human-computer interactions. For example, discovering new behavioral markers that are predictive of mental health or how new behavioral patterns relate to children’s interactions during learning. It is the responsibility of the authors to perform a proper literature review and clearly discuss the novelty in the scientific discoveries made in their paper.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>* Technical Novelty: Papers reviewed with this sub-criterion should include novelty in their computational approach for recognizing, generating or modeling data. Examples include: novelty in the learning and prediction algorithms, in the neural architecture, or in the data representation. Novelty can also be associated with new usages of an existing approach.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Please see the Submission Guidelines for Authors <a href="https://icmi.acm.org/2023/guidelines-for-authors/">https://icmi.acm.org/2023/guidelines-for-authors/</a> for detailed submission instructions.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>This year’s conference theme: The theme for this year’s conference is “Science of Multimodal Interactions”. As the community grows, it is important to understand the main scientific pillars involved in deep understanding of multimodal and social interactions. As a first step, we want to acknowledge key discoveries and contributions that the ICMI community enabled over the past 20+ years. As a second step, we reflect on the core principles, foundational methodologies and scientific knowledge involved in studying and modeling multimodal interactions. This will help establish a distinctive research identity for the ICMI community while at the same time embracing its multidisciplinary collaborative nature. This research identity and long-term agenda will enable the community to develop future technologies and applications while maintaining commitment to world-class scientific research.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Additional topics of interest include but are not limited to:<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>* Affective computing and interaction<o:p></o:p></p><p class=MsoNormal>* Cognitive modeling and multimodal interaction<o:p></o:p></p><p class=MsoNormal>* Gesture, touch and haptics<o:p></o:p></p><p class=MsoNormal>* Healthcare, assistive technologies<o:p></o:p></p><p class=MsoNormal>* Human communication dynamics<o:p></o:p></p><p class=MsoNormal>* Human-robot/agent multimodal interaction<o:p></o:p></p><p class=MsoNormal>* Human-centered A.I. and ethics<o:p></o:p></p><p class=MsoNormal>* Interaction with smart environment<o:p></o:p></p><p class=MsoNormal>* Machine learning for multimodal interaction<o:p></o:p></p><p class=MsoNormal>* Mobile multimodal systems<o:p></o:p></p><p class=MsoNormal>* Multimodal behaviour generation<o:p></o:p></p><p class=MsoNormal><span lang=IT>* Multimodal datasets and validation<o:p></o:p></span></p><p class=MsoNormal><span lang=IT>* Multimodal dialogue modeling<o:p></o:p></span></p><p class=MsoNormal>* Multimodal fusion and representation<o:p></o:p></p><p class=MsoNormal>* Multimodal interactive applications<o:p></o:p></p><p class=MsoNormal>* Novel multimodal datasets<o:p></o:p></p><p class=MsoNormal>* Speech behaviours in social interaction<o:p></o:p></p><p class=MsoNormal>* System components and multimodal platforms<o:p></o:p></p><p class=MsoNormal>* Visual behaviours in social interaction<o:p></o:p></p><p class=MsoNormal>* Virtual/augmented reality and multimodal interaction<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Submissions:<o:p></o:p></p><p class=MsoNormal>------------<o:p></o:p></p><p class=MsoNormal>Please note that the instructions were updated as of March 17th, 2023. All submissions are expected for reviewing in PDF. The submission format is the double column ACM conference format (see <a href="https://icmi.acm.org/2023/guidelines-for-authors/">https://icmi.acm.org/2023/guidelines-for-authors/</a>) The length depends on the different submission categories:<o:p></o:p></p><p class=MsoNormal>* Long paper: The maximum length is 8 pages using latex or Word (excluding references).<o:p></o:p></p><p class=MsoNormal>* Short paper: The maximum length is 4 pages using latex or Word (excluding references).<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>The submissions can be submitted online on: <a href="https://new.precisionconference.com/submissions/icmi23a">https://new.precisionconference.com/submissions/icmi23a</a><o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>ACM Publication Policies<o:p></o:p></p><p class=MsoNormal>------------------------<o:p></o:p></p><p class=MsoNormal>By submitting your article to an ACM Publication, you are hereby acknowledging that you and your co-authors are subject to all ACM Publications Policies, including ACM's new Publications Policy on Research Involving Human Participants and Subjects. Alleged violations of this policy or any ACM Publications Policy will be investigated by ACM and may result in a full retraction of your paper, in addition to other potential penalties, as per ACM Publications Policy.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Please ensure that you and your co-authors obtain an ORCID ID, so you can complete the publishing process for your accepted paper. ACM has been involved in ORCID from the start and we have recently made a commitment to collect ORCID IDs from all of our published authors. The collection process has started and will roll out as a requirement throughout 2022. We are committed to improve author discoverability, ensure proper attribution and contribute to ongoing community efforts around name normalization; your ORCID ID will help in these efforts.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Important Dates<o:p></o:p></p><p class=MsoNormal>---------------<o:p></o:p></p><p class=MsoNormal>Paper Submission                            May 1, 2023 <o:p></o:p></p><p class=MsoNormal>Rebuttal period                                June 26-29, 2023<o:p></o:p></p><p class=MsoNormal>Paper notification                            July 21, 2023<o:p></o:p></p><p class=MsoNormal>Camera-ready paper                      August 14, 2023<o:p></o:p></p><p class=MsoNormal>Presenting at main conference    October 9-13, 2023<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p></div></body></html>