<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">
— Apologies for cross-posting — <br class="">
<br class="">
<b class=""><font size="3" class="">Special Issue "Explainable User Models"</font></b><br class="">
<br class="">
A special issue of <a href="https://www.mdpi.com/journal/mti" class="">Multimodal Technologies and Interaction</a> (ISSN 2414-4088).<br class="">
<br class="">
<b class="" style="font-size: 14px;">Important Dates & Facts:</b><br class="">
Abstract/title submission: ideally until <b class="">November 5, 2021</b><br class="">
Manuscripts due by: <b class="">February 20, 2022</b><br class="">
Notification to authors: <b class="">March 15, 2022</b><br class="">
<br class="">
<b class="">Website:</b> <a href="https://www.mdpi.com/journal/mti/special_issues/Explainable_User_Models" class="">https://www.mdpi.com/journal/mti/special_issues/Explainable_User_Models</a> <br class="">
<br class="">
<b class="">Benefits of submission:</b><br class="">
<div class="">- Experienced Guest Editor </div>
<div class="">- <b class="">Open Access</b> with quick processing time</div>
<div class="">- High Visibility: Indexed within <a href="https://www.scopus.com/sourceid/21100945706" class="">Scopus</a>, <a href="https://mjl.clarivate.com/search-results" class="">ESCI (Web of Science)</a>, <a href="https://inspec-direct-app.theiet.org/" class="">Inspec</a>,
 and many <a href="https://www.mdpi.com/journal/mti/indexing" class="">other databases</a>.</div>
<div class="">- <b class="">Journal Rank:</b> CiteScore - Q2 (Computer Science Applications)</div>
<div class=""><br class="">
</div>
<div class=""><br class="">
</div>
<b class="" style="font-size: 14px;">Special Issue Information</b><br class="">
<br class="">
This special issue addresses research on Explainable User Models. As AI systems’ actions and decisions will significantly affect their users, it is important to be able to understand how an AI system represents its users. It is a well-known hurdle that many
 AI algorithms behave largely as black boxes. One key aim of explainability is, therefore, to make the inner workings of AI systems more accessible and transparent.<br class="">
<br class="">
Such explanations can be helpful in the case when the system uses information about the user to develop a working representation of the user, and then uses this representation to adjust or inform system behavior. E.g., an educational system could detect whether students
 have a more internal or external locus of control, a music recommender system could adapt the music it is playing to the current mood of a user, or an aviation system could detect the visual memory capacity of its pilots. However,  when adapting to such user
 models it is crucial that these models are accurately detected. Furthermore, for such explanations to be useful, they need to be able to explain or justify their representations of users in a human-understandable way. This creates a necessity for techniques
 that will create models for the automatic generation of satisfactory explanations intelligible for human users interacting with the system.<br class="">
<br class="">
The scope of the special issue includes but is not limited to:<br class="">
<br class="">
Detection and Modelling<br class="">
• Novel ways of Modeling User Preferences<br class="">
• Types of information to model (Knowledge, Personality, Cognitive differences, etc.)<br class="">
• Distinguishing between stationary versus transient user models (e.g., Personality vs Mood)<br class="">
• Context modeling (e.g., at work versus at home, lean in versus lean out activities)<br class="">
• User models from heterogeneous sources (e.g., behavior, ratings, and reviews)<br class="">
• Enrichment and Crowdsourcing for Explainable User Models<br class="">
<br class="">
Ethics<br class="">
• Detection of sensitive or rarely reported attributes (e.g., gender, race, sexial orientation)<br class="">
• Implicit user modeling versus explicit user modeling (e.g., questionnaires versus inference from behavior)<br class="">
• User modeling for self actualization (e.g., user modeling to improve dietary or news consumption habits)<br class="">
<br class="">
Human understandability<br class="">
• Metrics and methodologies for evaluating fitness for the purpose of explanations<br class="">
• Balancing completeness and understandability for complex user models<br class="">
• Explanations to mitigate human biases (e.g., confirmation bias, anchoring)<br class="">
• Effect of user model explanation on subsequent user interaction (e.g., simulations, and novel evaluation methodologies)<br class="">
<br class="">
Effectiveness<br class="">
• Analysis or comparison of context of use of explanation (e.g., risk, time pressure, error tolerance)<br class="">
• Analysis of context of use of system (e.g., decision support, prediction)<br class="">
• Analysis or comparison of effect of explaining in specific domains (e.g., education, health, recruitment, security)<br class="">
<br class="">
Adaptive presentation of the explanations<br class="">
• For different types of user<br class="">
• Interactive explanations<br class="">
• Investigation of which presentational aspects are beneficial to tailor in the explanation (e.g., level of detail, terminology, modality text or graphics, level of interaction)<br class="">
<br class="">
<br class="">
Prof. Dr. Nava Tintarev<br class="">
Ms. Oana Inel<br class="">
Guest Editors
<div class=""><br class="">
</div>
</body>
</html>