<div dir="ltr">3rd ACM International Workshop on Multimedia AI against Disinformation (MAD’24)<br>ACM International Conference on Multimedia Retrieval ICMR'24<br>Phuket, Thailand, June 10-13, 2024<br><a href="https://www.mad2024.aimultimedialab.ro/">https://www.mad2024.aimultimedialab.ro/</a>   <br><a href="https://easychair.org/my/conference?conf=mad2024">https://easychair.org/my/conference?conf=mad2024</a><br><br><br>*** Call for papers ***<br><br>* Paper submission due: March 17, 2024<br>* Acceptance notification: April 7, 2024<br>* Camera-ready papers due: April 25, 2024<br>* Workshop @ACM ICMR 2024: June 10, 2024 <br><br><br>Modern communication does not rely anymore solely on classic media like newspapers or television, but rather takes place over social networks, in real-time, and with live interactions among users. The speedup in the amount of information available, however, also led to an increased amount and quality of misleading content, disinformation and propaganda. Conversely, the fight against disinformation, in which news agencies and NGOs (among others) take part on a daily basis to avoid the risk of citizens' opinions being distorted, became even more crucial and demanding, especially for what concerns sensitive topics such as politics, health and religion.<br><br>Disinformation campaigns are leveraging, among others, AI-based tools for content generation and modification: hyper-realistic visual, speech, textual and video content have emerged under the collective name of "deepfakes", and more recently with the use of Large Language Models (LLMs) and Large Multimodal Models (LMMs), undermining the perceived credibility of media content. It is, therefore, even more crucial to counter these advances by devising new analysis tools able to detect the presence of synthetic and manipulated content, accessible to journalists and fact-checkers, robust and trustworthy, and possibly based on AI to reach greater performance.<br><br>Future multimedia disinformation detection research relies on the combination of different modalities and on the adoption of the latest advances of deep learning approaches and architectures. These  raise new challenges and questions that need to be addressed in order to reduce the effects of disinformation campaigns. The workshop, in its third edition, welcomes contributions related to different aspects of AI-powered disinformation detection, analysis and mitigation.<br><br>Topics of interest include but are not limited to:<br><br>- Disinformation detection in multimedia content (e.g., video, audio, texts, images)<br>- Multimodal verification methods<br>- Synthetic and manipulated media detection<br>- Multimedia forensics<br>- Disinformation spread and effects in social media<br>- Analysis of disinformation campaigns in societally-sensitive domains<br>- Robustness of media verification against adversarial attacks and real-world complexities<br>- Fairness and non-discrimination of disinformation detection in multimedia content<br>- Explaining disinformation/disinformation detection technologies to non-expert users<br>- Temporal and cultural aspects of disinformation<br>- Dataset sharing and governance in AI for disinformation<br>- Datasets for disinformation detection and multimedia verification<br>- Open resources, e.g., datasets, software tools<br>- Large Language Models for analyzing and mitigating disinformation campaigns<br>- Large Multimodal Models for media verification<br>- Multimedia verification systems and applications<br>- System fusion, ensembling and late fusion techniques<br>- Benchmarking and evaluation frameworks<br><br><br>*** Submission guidelines ***<br><br>When preparing your submission, please adhere strictly to the ACM ICMR 2024 instructions, to ensure the appropriateness of the reviewing process and inclusion in the ACM Digital Library proceedings. The instructions are available here: <a href="https://mad2024.aimultimedialab.ro/submissions/">https://mad2024.aimultimedialab.ro/submissions/</a>.<br><br><br><br>*** Organizing committee ***<br><br>Cristian Stanciu, Politehnica University of Bucharest, Romania<br>Luca Cuccovillo, Fraunhofer IDMT, Germany<br>Bogdan Ionescu, Politehnica University of Bucharest, Romania<br>Giorgos Kordopatis-Zilos, Czech Technical University in Prague, Czechia<br>Symeon Papadopoulos, Centre for Research and Technology Hellas, Thessaloniki, Greece<br>Adrian Popescu, CEA LIST, Saclay, France<br>Roberto Caldelli, CNIT and Mercatorum University, Italy<br><br>The workshop is supported under the H2020 project AI4Media - A European Excellence Centre for Media, Society and Democracy (<a href="https://www.ai4media.eu/">https://www.ai4media.eu/</a>), the Horizon Europe project <a href="http://vera.ai">vera.ai</a> - VERification Assisted by Artificial Intelligence (<a href="https://www.veraai.eu/">https://www.veraai.eu/</a>) and Horizon Europe project AI4Debunk - Participative Assistive AI-powered Tools for Supporting Trustworthy Online Activity of Citizens and Debunking Disinformation (<a href="https://ai4debunk.eu/">https://ai4debunk.eu/</a>).<br><br><br>On behalf of the organizers,<br><br>Cristian Stanciu<br><a href="https://www.aimultimedialab.ro/">https://www.aimultimedialab.ro/</a><br></div>