<div dir="ltr">**********************************************************************<br>2nd 3D Face Alignment in the Wild Challenge & Workshop<br>In conjunction with ICCV 2019, Seoul, Korea (Oct 27th- Nov 2nd, 2019)<br>Website: <a href="https://3dfaw.github.io">https://3dfaw.github.io</a><br>CMT is open: <a href="https://cmt3.research.microsoft.com/3DFAW2019">https://cmt3.research.microsoft.com/3DFAW2019</a><br>**********************************************************************<br><br>---------------<br>CALL FOR PAPERS<br>---------------<br><br>Over the past few years a number of research groups have made rapid advances in dense 3D alignment from 2D images and obtained impressive results. How these various methods compare is relatively unknown. Previous benchmarks addressed sparse 3D alignment and single image 3D reconstruction. No commonly accepted evaluation protocol exists for dense 3D face reconstruction from video with which to compare them. <br>To enable comparisons among alternative methods, we present the 2nd 3D Face Alignment in the Wild - Dense Reconstruction from Video Challenge. This topic is germane to both computer vision and multimedia communities. For computer vision, it is an exciting approach to longstanding limitations of single-image 3D reconstruction approaches. For multimedia, 3D alignment would enable more powerful applications.<br><br><br>Workshop track<br>~~~~~~~~~~~~~~<br>The workshop track is intended to bring together computer vision researchers whose work is related to 2D or 3D face alignment. We are soliciting original contributions which address a wide range of theoretical and application issues of 3D face alignment for computer vision applications, including but not limited to:<br><br>- 3D face alignment from 2D dimensional images<br>- Model- and stereo-based 3D face reconstruction<br>- Dense and sparse face tracking from 2D and 3D dimensional inputs<br>- Applications in AR / VR<br>- Face alignment for embedded and mobile devices<br>- Facial expression retargeting (avatar animation)<br>- Face alignment-based user interfaces<br><br><br>Challenge Track<br>~~~~~~~~~~~~~~~<br>The challenge track evaluates 3D face reconstruction methods on a new large corpora of profile-to-profile face videos annotated with corresponding high-resolution 3D ground truth meshes. The corpora includes profile-to-profile videos obtained under a range of conditions: <br><br>- high-definition in-the-lab video, and <br>- unconstrained video from an iPhone device.<br><br>For each subject, high-resolution 3D ground truth scans were obtained using a Di4D imaging system. The goal of the challenge is to reconstruct the 3D structure of the face from the two different video sources.<br><br><br>----------<br>SUBMISSION<br>----------<br><br>For paper submission, please use the CMT site:<br><a href="https://cmt3.research.microsoft.com/3DFAW2019">https://cmt3.research.microsoft.com/3DFAW2019</a><br><br>For participating in the challenge, please visit the CodaLab page for more details:<br><a href="https://codalab.lri.fr/competitions/572">https://codalab.lri.fr/competitions/572</a><br><a href="https://3dfaw.github.io">https://3dfaw.github.io</a><br><br>---------------<br>IMPORTANT DATES<br>---------------<br><br>Challenge Track<br>June 27th: Challenge site opens<br>August 1st: Testing phase begins<br>August 15: Competition ends<br><br>Workshop Track<br>July 31st: Paper submission deadline<br>August 21st: Notification of acceptance<br>August 28th: Camera ready submission<br><br><br>-------------------<br>WORKSHOP ORGANIZERS<br>-------------------<br>Laszlo A. Jeni, Carnegie Mellon University, USA<br>Jeffrey F. Cohn, University of Pittsburgh, USA<br>Lijun Yin, Binghamton University, USA<br><br>Data chairs:<br>Rohith Krishnan Pillai, Carnegie Mellon University, USA<br>Huiyuan Yang, Binghamton University, USA<br>Zheng Zhang, Binghamton University, USA<br><br>---------------------------<br>TECHNICAL PROGRAM COMMITTEE<br>---------------------------<br>Abhinav Dhall, Australian National University, Australia<br>Gábor Szirtes, KÜRT Akadémia / <a href="http://bsi.ai">bsi.ai</a><br>Hamdi Dibeklioglu, Bilkent University, Turkey<br>Michel Valstar, University of Nottingham, UK<br>Patrik Huber, University of Surrey, UK<br>Sergio Escalera, University of Barcelona, Spain<br>Shaun Canavan, University of South Florida, USA<br>Vitomir Štruc, University of Ljubljana, Slovenia<br>Xiaoming Liu, Michigan State University, USA<br>Xing Zhang, A9<br>Zoltan Kato, University of Szeged, Hungary<br><br>---------------------<br>JOURNAL SPECIAL ISSUE<br>---------------------<br>A special issue on a top journal is planned.<br><br>For more information: <a href="https://3dfaw.github.io">https://3dfaw.github.io</a><br><br clear="all"><div><br></div>-- <br><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div style="font-family:"courier new",monospace;font-size:12.8px">+------------------------------------------</div><div style="font-family:"courier new",monospace;font-size:12.8px">| Laszlo A. Jeni, PhD</div><div style="font-family:"courier new",monospace;font-size:12.8px">|   Systems Scientist (faculty)</div><div style="font-family:"courier new",monospace;font-size:12.8px">|   Robotics Institute</div><div style="font-family:"courier new",monospace;font-size:12.8px">|   Carnegie Mellon University,</div><div style="font-family:"courier new",monospace;font-size:12.8px"><span style="font-size:12.8px">| Web: </span><a href="http://www.laszlojeni.com/" style="font-size:12.8px" target="_blank">http://www.laszlojeni.com</a><br></div><div style="font-family:"courier new",monospace;font-size:12.8px"><span style="font-size:12.8px">| Email: </span><a href="mailto:laszlojeni@cmu.edu" style="font-size:12.8px" target="_blank">laszlojeni@cmu.edu</a><br></div><div style="font-family:"courier new",monospace;font-size:12.8px">| Tel:   (+1) 412-268-4461</div><div style="font-family:"courier new",monospace;font-size:12.8px">+------------------------------------------</div></div></div></div></div></div></div>