<div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr"><br></div><div dir="ltr"><p class="MsoNormal" style="margin:0cm 0cm 12pt;color:rgb(0,0,0);line-height:12.65pt"><font face="verdana, sans-serif">Website: </font><span style="color:rgb(34,34,34)"><a href="https://www.imageclef.org/2021/coral" target="_blank">https://www.imageclef.org/2021/coral</a></span></p><p class="MsoNormal" style="margin:0cm 0cm 12pt;color:rgb(0,0,0);line-height:12.65pt"><span style="color:rgb(34,34,34)">*** CALL FOR PARTICIPATION ***</span><font face="verdana, sans-serif"><br></font></p><p class="MsoNormal" style="margin:0cm 0cm 12pt;color:rgb(0,0,0);line-height:12.65pt"><b><font size="4">The 3rd Edition of the ImageCLEF Coral Annotation Challenge 2021</font></b><span style="color:rgb(34,34,34)"><br></span></p><h3 style="margin:0px;padding:0px;font-family:Helvetica,Arial,sans-serif;font-size:17.024px;color:rgb(73,73,73)">Data</h3><div><span style="color:rgb(73,73,73);font-family:Verdana,sans-serif;font-size:12.16px">The increasing use of structure-from-motion photogrammetry for modelling large-scale environments from action cameras attached to drones has driven the next-generation of visualisation techniques that can be used in augmented and virtual reality headsets. It has also created a need to have such models labelled, with objects such as people, buildings, vehicles, terrain, etc. all essential for machine learning techniques to automatically identify as areas of interest and to label them appropriately. However, the complexity of the images makes impossible for human annotators to assess the contents of images on a large scale.</span><br></div><p style="margin:0.6em 0px 1.2em;padding:0px;color:rgb(73,73,73);font-family:Verdana,sans-serif;font-size:12.16px">Advances in automatically annotating images for complexity and benthic composition have been promising, and we are interested in automatically identify areas of interest and to label them appropriately for monitoring coral reefs. Coral reefs are in danger of being lost within the next 30 years, and with them the ecosystems they support. This catastrophe will not only see the extinction of many marine species, but also create a humanitarian crisis on a global scale for the billions of humans who rely on reef services. By monitoring the changes and composition of coral reefs we can help prioritise conservation efforts.</p><p style="margin:0.6em 0px 1.2em;padding:0px;color:rgb(73,73,73);font-family:Verdana,sans-serif;font-size:12.16px"><b><em>New for 2021</em>:</b></p><p style="margin:0.6em 0px 1.2em;padding:0px;color:rgb(73,73,73);font-family:Verdana,sans-serif;font-size:12.16px">in its 3rd edition, the training and <span>test</span> data will form the complete <span>set</span> of images required to form a 3D reconstruction of the environment. This allows the participants to explore novel probabilistic computer vision techniques based around image overlap and transposition of data points. Participants will be given instruction on the preparation of 3D reconstruction, the output files (.obj) and a visualisation of each model without labels (for example, <a href="https://skfb.ly/6SooQ" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">https://skfb.ly/6SooQ</a>).</p><p style="margin:0.6em 0px 1.2em;padding:0px;color:rgb(73,73,73);font-family:Verdana,sans-serif;font-size:12.16px">In addition, participants are encourage to use the publicly available <a href="https://www.ncei.noaa.gov/access/metadata/landing-page/bin/iso?id=gov.noaa.nodc:0211063" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">NOAA NCEI data</a> to train their approaches.<span style="font-family:verdana,sans-serif;color:rgb(0,0,0);font-size:small"> </span></p><p class="MsoNormal" style="margin:0cm 0cm 10pt;color:rgb(0,0,0);line-height:12.65pt"><font face="verdana, sans-serif"><b>Challenge description</b></font></p><p class="MsoNormal" style="margin:0cm 0cm 10pt;line-height:12.65pt"><font face="verdana, sans-serif" color="#666666">Participants will be require to annotate and localise coral reef images by labelling the images with types of benthic substrate together. Each image is provided with possible class types. </font></p><p class="MsoNormal" style="margin:0cm 0cm 10pt;color:rgb(0,0,0);line-height:12.65pt"><b><font face="verdana, sans-serif">Data</font></b></p><p style="margin:0.6em 0px 1.2em;padding:0px;color:rgb(73,73,73);font-family:Verdana,sans-serif;font-size:12.16px">The data for this task originates from a growing, large-scale collection of images taken from coral reefs around the world as part of a coral reef monitoring project with the Marine Technology Research Unit at the University of Essex.<br>Substrates of the same type can have very different morphologies, color variation and patterns. Some of the images contain a white line (scientific measurement tape) that may occlude part of the entity. The quality of the images is variable, some are blurry, and some have poor color balance. This is representative of the Marine Technology Research Unit dataset and all images are useful for data analysis. The images contain annotations of the following 13 types of substrates: Hard Coral – Branching, Hard Coral – Submassive, Hard Coral – Boulder, Hard Coral – Encrusting, Hard Coral – Table, Hard Coral – Foliose, Hard Coral – Mushroom, Soft Coral, Soft Coral – Gorgonian, Sponge, Sponge – Barrel, Fire Coral – Millepora and Algae - Macro or Leaves.<br>The <span>test</span> data contains images from four different locations:</p><ul style="margin:0.5em 0px 1em;padding:0px 0px 0px 1.5em;color:rgb(73,73,73);font-family:Verdana,sans-serif;font-size:12.16px"><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em">same location as training <span>set</span></li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em">similar location to training <span>set</span></li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em">geographically similar to training <span>set</span></li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em">geographically distinct from training <span>set</span></li></ul><p class="MsoNormal" style="margin:0cm 0cm 10pt;color:rgb(0,0,0);line-height:12.65pt"><b><font face="verdana, sans-serif">Important dates</font></b></p><ul type="disc" style="margin-bottom:0cm;color:rgb(0,0,0)"><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><b>16.11.2020</b>: registration opens for all ImageCLEF tasks</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><b>01.03.2021</b>: development data released</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><b>22.04.2021</b>: <span>test</span> data release starts</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><b>07.05.2021</b>: deadline for submitting the participants runs</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><b>28.05.2021</b>: deadline for submission of working notes papers by the participants</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><b>21-24.09.2021</b>: <a href="http://clef2021.clef-initiative.eu/" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">CLEF 2021</a>, Bucharest, Romania</li></ul><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;color:rgb(0,0,0);line-height:12.65pt"><font face="verdana, sans-serif"> </font></p><p class="MsoNormal" style="margin:0cm 0cm 10pt;color:rgb(0,0,0);line-height:12.65pt"><b><font face="verdana, sans-serif">Participant Registration</font></b></p><p class="MsoNormal" style="margin:0cm 0cm 10pt;color:rgb(0,0,0);line-height:12.65pt"><a href="https://www.imageclef.org/2021#registration" rel="noreferrer" target="_blank">https://www.imageclef.org/2021#registration</a><br></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt;color:rgb(0,0,0);line-height:12.65pt"><font face="verdana, sans-serif"> </font></p><p class="MsoNormal" style="margin:0cm 0cm 12pt;color:rgb(0,0,0);line-height:12.65pt"><font face="verdana, sans-serif"><a name="m_1919623946402567918_m_8359807239697599499_m_-2474647919442785295_m_6082771856162021670_m_-6126605169184005672_m_4321509504270551620__GoBack" style="color:rgb(34,34,34)"></a><b>Organizing Committee</b></font></p><ul type="disc" style="margin-bottom:0cm;color:rgb(0,0,0);margin-top:0cm"><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><a href="https://www.essex.ac.uk/people/chamb94408/jon-chamberlain" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">Jon Chamberlain</a> <jchamb(at)<a href="http://essex.ac.uk/" target="_blank">essex.ac.uk</a>>,University of Essex, UK</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><a href="https://www.fisheries.noaa.gov/contact/thomas-oliver-phd" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">Thomas A. Oliver</a> <thomas.oliver(at)<a href="http://noaa.gov/" target="_blank">noaa.gov</a>>, NOAA/ US IOOS, USA</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><a href="https://www.fisheries.noaa.gov/contact/hassan-moustahfid-phd" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">Hassan Moustahfid</a> <hassan.moustahfid(at)<a href="http://noaa.gov/" target="_blank">noaa.gov</a>>, NOAA/ US IOOS, USA</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><a href="http://www.ime.unicamp.br/~campello/index.html" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">Antonio Campello</a> <a.campello(at)<a href="http://wellcome.ac.uk/" target="_blank">wellcome.ac.uk</a>>,Wellcome Trust, UK</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><a href="https://www.essex.ac.uk/people/clark65804/adrian-clark" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">Adrian Clark</a> <alien(at)<a href="http://essex.ac.uk/" target="_blank">essex.ac.uk</a>>,University of Essex, UK</li><li style="margin:0.15em 0px 0.15em 0.5em;padding-bottom:0.1em"><a href="https://www1.essex.ac.uk/csee/staff/profile.aspx?ID=5723" style="color:rgb(2,122,198);text-decoration-line:none" target="_blank">Alba García Seco de Herrera</a> <alba.garcia(at)<a href="http://essex.ac.uk/" target="_blank">essex.ac.uk</a>>,University of Essex, UK</li></ul><p class="MsoNormal" style="margin:0cm 0cm 12pt;color:rgb(0,0,0);line-height:12.65pt"><font face="verdana, sans-serif"> </font></p><p class="MsoNormal" style="margin:0cm 0cm 10pt"><font face="verdana, sans-serif"><span style="color:black">For more details and updates, please visit the task website at: </span></font><a href="https://www.imageclef.org/2021/coral" target="_blank">https://www.imageclef.org/2021/coral</a> </p><p class="MsoNormal" style="margin:0cm 0cm 10pt;color:rgb(0,0,0)"></p><p class="MsoNormal" style="margin:0cm 0cm 0.0001pt"><font face="verdana, sans-serif">And join our mailing list: <a href="https://groups.google.com/d/forum/imageclefcoral" style="color:rgb(5,99,193)" target="_blank">https://groups.google.com/d/forum/imageclefcoral</a>  </font></p></div>
</div></div>