<div dir="ltr"><div class="gmail_quote"><div dir="ltr">Dear all  (please help share with colleagues)<div dir="ltr">
<div dir="auto"><br>
</div>
<div dir="auto">We are pleased to announce the launch of
<b>the</b> <b>first COG-MHEAR Audio-visual Speech Enhancement Challenge (AVSEC)</b> - <a href="http://challenge.cogmhear.org" id="m_-8147779264548270991LPNoLPOWALinkPreview_2" target="_blank">http://challenge.cogmhear.org</a></div>
<div>
</div>
<div dir="auto"><br>
</div>
<div dir="auto">Participants will work on a large dataset derived from TED talks to enhance speech in extremely challenging noisy environments and with competing speakers. The performance will be evaluated using human listening tests
 as well as with objective measures. We hope that the Challenge will create a benchmark for AVSEC research that will be useful for years to come. The challenge data and development tools are now available - for details see the challenge website:
<a href="https://challenge.cogmhear.org/#/" id="m_-8147779264548270991LPNoLPOWALinkPreview_1" target="_blank">https://challenge.cogmhear.org/#/</a>  and our github repository:
<a href="https://github.com/cogmhear/avse_challenge" id="m_-8147779264548270991LPNoLPOWALinkPreview" target="_blank">https://github.com/cogmhear/avse_challenge</a>  </div>
<div>
</div>
<br>
<div>
</div>
<div dir="auto">AVSEC has been accepted as an official challenge at the
<b>IEEE Spoken Language Technology (SLT) Workshop</b> (<a href="https://slt2022.org/" target="_blank">https://slt2022.org/</a>) to be held in Doha, Qatar, 9-12 Jan 2023, where a special session will be run.</div>
<div dir="auto"><br>
</div>
<div dir="auto"><b>Important Dates</b></div>
<div dir="auto"><br>
</div>
<div dir="auto">1st May 2022: Challenge website launch</div>
<div dir="auto">31st May 2022: Release of the full toolset, training/development data and baseline system</div>
<div dir="auto">1 June 2022: Registration for challenge entrants opens</div>
<div dir="auto">25th July 2022: Evaluation data released</div>
<div dir="auto">1st Sept 2022: Submission deadline for evaluation (by objective and subjective measures)</div>
<div dir="auto">9th Jan 2023: Results announced at IEEE SLT 2022</div>
<div dir="auto"><br>
</div>
<div dir="auto"><b>Background:</b></div>
<div dir="auto"><br>
</div>
<div dir="auto">Human performance in everyday noisy situations is known to be dependent upon both aural and visual senses that are contextually combined by the brain’s multi-level integration strategies. The multimodal nature of speech is well established,
 with listeners known to unconsciously lip-read to improve the intelligibility of speech in a real noisy environment. It has been shown that the visual aspect of speech has a potentially strong impact on the ability of humans to focus their auditory attention
 on a particular stimulus. </div>
<div dir="auto"><br>
</div>
<div dir="auto">The aim of the first AVSEC is to bring together the wider computer vision, hearing and speech research communities to explore novel approaches to multimodal speech-in-noise processing. Both raw and pre-processed AV datasets – derived from TED
 talk videos – will be made available to participants for training and development of audio-visual models to perform speech enhancement and speaker separation at SNR levels that will be significantly more challenging than those typically used in audio-only
 scenarios. Baseline neural network models and a training recipe will be provided.</div>
<div dir="auto"><br>
</div>
<div dir="auto">In addition to participation at IEEE SLT, Challenge participants will be invited to contribute to a Journal Special Issue on the topic of Audio-Visual Speech Enhancement that will be announced early next year.</div>
<div dir="auto"><br>
</div>
<div dir="auto"><b>Further information</b>:</div>
<div dir="auto"><br>
</div>
<div dir="auto">If you are interested in participating and wish to receive further information, please sign up here: <a href="https://challenge.cogmhear.org/#/getting-started/register" target="_blank">https://challenge.cogmhear.org/#/getting-started/register</a></div>
<div dir="auto"><br>
</div>
<div dir="auto">If you have questions, contact us directly at: <a href="mailto:cogmhear@napier.ac.uk" target="_blank">cogmhear@napier.ac.uk</a></div>
<div dir="auto"><br>
</div>
<div dir="auto"><b>Organising Team</b>: </div>
<div dir="auto"><br>
</div>
<div dir="auto">Amir Hussain, Edinburgh Napier University, UK (co-Chair)</div>
<div dir="auto">Peter Bell, University of Edinburgh, UK (co-Chair)</div>
<div dir="auto">Mandar Gogate, Edinburgh Napier University, UK</div>
<div dir="auto">Cassia Valentini Botinhao, University of Edinburgh, UK</div>
<div dir="auto">Kia Dashtipour, Edinburgh Napier University, UK</div>
<div dir="auto">Lorena Aldana, University of Edinburgh, UK</div>
<div dir="auto"><br>
</div>
<div dir="auto">Evaluation Panel Chair: John Hansen, University of Texas in Dallas, USA</div>
<div dir="auto">Scientific Committee Chair: Michael Akeroyd, University of Nottingham, UK</div>
<div dir="auto">Industry co-ordinator: Peter Derleth, Sonova AG</div>
<div dir="auto"><br>
</div>
<div dir="auto">Funded by the UK Engineering and Physical Sciences Research Council (EPSRC) programme grant: COG-MHEAR (<a href="http://cogmhear.org" target="_blank">http://cogmhear.org</a> )</div>
<div dir="auto"><br>
</div>
<div dir="auto">Supported by RNID (formerly Action on Hearing Loss), Deaf Scotland, Sonova AG</div>
<div dir="auto"><br>
</div>
<div dir="auto">--</div>
<div dir="auto">Professor Amir Hussain</div>
<div dir="auto">School of Computing, </div>
<div dir="auto">Edinburgh Napier University, Scotland, UK</div>
<div dir="auto">E-mail: <a href="mailto:A.Hussain@napier.ac.uk" target="_blank">A.Hussain@napier.ac.uk</a> </div><div dir="auto"><a href="https://www.napier.ac.uk/people/amir-hussain">https://www.napier.ac.uk/people/amir-hussain</a> <br></div></div><table width="100%" cellspacing="0" cellpadding="="0"" border="0" align="left" style="font-family:Arial,Helvetica,san-serif;font-size:10pt"><tbody><tr><td style="padding:5px">
<p>It is your responsibility to ensure that this message and its attachment(s) are scanned for viruses or other defects. Edinburgh Napier University does not accept liability for any loss or damage which may result from this message or its attachment(s), or
 for errors or omissions arising after it was sent. Email is not a secure medium. Emails entering Edinburgh Napier University's system are subject to routine monitoring and filtering by Edinburgh Napier University.</p>
<p>Edinburgh Napier University is a registered Scottish charity. Registration number SC018373</p>
<p>BSL users can contact us via contactSCOTLAND-BSL, the on-line British Sign Language interpreting service. Find out more on the contactSCOTLAND website.</p>
</td>
</tr>
</tbody>
</table>
</div>

</div></div>