<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body style="overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div>
<div><i>[Apologies if you receive multiple copies of this CFP]</i></div>
<div><br>
</div>
<div>Call for papers for special session "<b>A Human-Centric Perspective of Explainability, Interpretability and Resilience in Computer Vision</b>"</div>
<div><br>
</div>
<div>Special session is included in IJCNN at the IEEE WCCI 2024 in Yokohama</div>
<div><br>
</div>
<div><br>
</div>
<div><b>Scope and topics</b></div>
<div><br>
</div>
<div>Computer vision has always been an extremely popular topic in the field of Artificial Intelligence. It is of fundamental importance in many high-impact application areas, such as in security with Visual Object Tracking, in the medical field through the
 possibility of making predictions of diseases and attempting to locate through object detection and segmentation possible diseased areas in images. It is perfectly applicable to any kind of visual input even from different domains such as using data from ECG
 or EEG that can easily be transformed from one-dimensional signals into two or tri-dimensional signals and represent them with high semantic meaning as images. Moreover, with the latest generative techniques, artificial data can be made with extraordinary
 fidelity. </div>
<div><br>
</div>
<div>The techniques produced in this area are able to work on both static images and sequences of images, which can have both temporal and volumetric expansion. Because of all these applications, some of them extremely sensitive and high-impact for humans,
 it has become necessary in recent years to begin to understand why a neural model working on images chooses one response over another. This is possible through explainable Artificial Intelligence techniques. As time goes on, however, it becomes increasingly
 important not only to explain why an artificial neural network makes choices, but also and especially to provide architectures that can explicitly or implicitly provide a set of explanations/rules, why it was possible to interpret a certain output with given
 input and verify the mechanisms that are activated within it, even making them predictable. Finally, it is becoming more and more appropriate to put side by side with this type of analysis, how well a model is able to "defend" and "adapt" itself from elements
 in the external world. that attempt to confuse the model and try to steer it down the wrong path. </div>
<div><br>
</div>
<div>Thus, the purpose of this special session is to revise computer vision models by changing the perspective of looking at these methodologies, making them no longer only data- and performance-driven, which is the point on which mostly new algorithms are
 created, but to be able to make them become human-centric, that is, through processes of explainability, interpretability, and resilience to go about unwinding the skein of uncertainty that hovers over deep learning and, especially, in the field of computer
 vision by allowing artificial intelligence to be reliable from a human perspective. </div>
<div><br>
</div>
<div><br>
</div>
<div>The topics of interest for this special session include (but are not limited to):</div>
<div><br>
</div>
<div>
<ul class="MailOutline">
<li>Explainability and interpretability of deep neural networks</li><li>Resilient models in computer vision</li><li>Robustness and adaptation to adversarial inputs </li><li>Visualization techniques for explainability and interpretability</li><li>Meta-explanation, generative description of outputs</li><li>Specific explainability and effects of visual attributes in images</li><li>Datasets reliability </li><li>Multisource imaging interpretation</li></ul>
</div>
<div><br>
</div>
<div><br>
</div>
<div><b>Paper submission deadline is January 15, 2024</b></div>
<div><br>
</div>
<div>To submit a paper use edas platform (<span style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);"><a href="https://edas.info/newPaper.php?c=31628&track=121739">https://edas.info/newPaper.php?c=31628&track=121739</a>)</span> and specify, in the topics
 section, that your paper is for the "A Human-Centric Perspective of Explainability, Interpretability and Resilience in Computer Vision”.</div>
<div>Paper submission guidelines can be found on WCCI website (<a href="https://2024.ieeewcci.org/">https://2024.ieeewcci.org/</a>)</div>
<div><br>
</div>
<div>All papers accepted and presented at WCCI2024 will be included in the conference proceedings published by IEEE Explore.</div>
<div><br>
</div>
<div><br>
</div>
<div>All details can be found here (<a href="https://sites.google.com/view/heiro-ijcnn-call-for-paper/home">https://sites.google.com/view/heiro-ijcnn-call-for-paper/home</a>)</div>
<div><br>
</div>
<div><br>
</div>
<div><b>Organizers</b></div>
<div><b><br>
</b></div>
<div>Emanuel Di Nardo, PhD, University of Naples Parthenope, Italy</div>
<div>Prof. Ihsan Ullah, University of Galway, Ireland</div>
<div>Prof. Angelo Ciaramella, University of Naples Parthenope, Italy</div>
</div>
<br class="Apple-interchange-newline" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0);">
<div>
<div dir="auto" style="caret-color: rgb(0, 0, 0); color: rgb(0, 0, 0); letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; overflow-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;">
<div>------</div>
<div><b>Emanuel Di Nardo, PhD</b></div>
<div>University of Naples Parthenope</div>
<div>Naples, Italy</div>
<div>emanuel.dinardo@uniparthenope.it</div>
<div>https://research.emanueldinardo.com</div>
</div>
</div>
<br>
</body>
</html>