<html><body><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000"><div data-marker="__HEADERS__"><div><br data-mce-bogus="1"></div><h3>PhD Thesis position or research engineer or post-doc position in Natural Language Processing: Introduction of semantic information in a speech recognition system<br></h3><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;"><br data-mce-bogus="1"></strong></div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Supervisors: </strong>Irina Illina, MdC, Dominique Fohr, CR CNRS</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Team:</strong> Multispeech, LORIA-INRIA</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Contact:</strong> illina@loria.fr, dominique.fohr@loria.fr</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Duration of post-doc or research engineer</strong>: 12-18 months</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Duration of PhD Thesis</strong><span> </span>: 3 years</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Deadline to apply</strong> : May  15th, 2019</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Required skills: </strong>background in statistics, natural language processing and computer program skills (Perl, Python). Candidates should email a detailed CV with diploma</div><div><br data-mce-bogus="1"></div><div>Under noisy conditions, audio acquisition is one of the toughest challenges to have a successful automatic speech recognition (ASR). Much of the success relies on the ability to attenuate ambient noise in the signal and to take it into account in the acoustic model used by the ASR. Our DNN (Deep Neural Network) denoising system and our approach to exploiting uncertainties have shown their combined effectiveness against noisy speech.</div><div><br data-mce-bogus="1"></div><div>The ASR stage will be supplemented by a semantic analysis. Predictive representations using continuous vectors have been shown to capture the semantic characteristics of words and their context, and to overcome representations based on counting words. Semantic analysis will be performed by combining predictive representations using continuous vectors and uncertainty on denoising. This combination will be done by the rescoring component. All our models will be based on the powerful technologies of DNN.</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;"><br data-mce-bogus="1"></strong></div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Main activities</strong></div><div><br data-mce-bogus="1"></div><div>study and implementation of a noisy speech enhancement module and a propagation of uncertainty module;</div><div>design a semantic analysis module;</div><div>design a module taking into account the semantic and uncertainty information.</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;"><br data-mce-bogus="1"></strong></div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Skills</strong></div><div><br data-mce-bogus="1"></div><div>Strong background in mathematics, machine learning (DNN), statistics</div><div>Following profiles are welcome, either</div><div>Strong background in signal processing</div><div>or</div><div>Strong experience with natural language processing</div><div><br data-mce-bogus="1"></div><div>Excellent English writing and speaking skills are required in any case.</div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;"><br data-mce-bogus="1"></strong></div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">References</strong></div><div><br data-mce-bogus="1"></div><div>[Nathwani<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">et al</em>., 2018] Nathwani, K., Vincent, E., and Illina, I. DNN uncertainty propagation using GMM-derived uncertainty features for noise robust ASR,<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">IEEE Signal Processing Letters</em>, 2018.</div><div><br data-mce-bogus="1"></div><div>[Nathwani<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">et al</em>., 2017] Nathwani, K., Vincent, E., and Illina, I. Consistent DNN uncertainty training and decoding for robust ASR, in<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">Proc.</em><span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">IEEE Automatic Speech Recognition and Understanding Workshop</em>, 2017.</div><div><br data-mce-bogus="1"></div><div>[Nugraha<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">et al.,</em><span> </span>2016] Nugraha, A., Liutkus, A., Vincent E. Multichannel audio source separation with deep neural networks.<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">IEEE/ACM</em><span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">Transactions on Audio, Speech, and Language Processing</em>, 2016.</div><div><br data-mce-bogus="1"></div><div>[Sheikh, 2016] Sheikh, I. Exploitation du contexte sémantique pour améliorer la reconnaissance des noms propres dans les documents audio diachroniques”,<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">These de doctorat en Informatique, Université de Lorraine,</em><span> </span>2016.</div><div><br data-mce-bogus="1"></div><div>[Peters et al., 2017] Matthew Peters, Waleed Ammar, Chandra Bhagavatula, and Russell Power. 2017. “Semi-supervised sequence tagging with bidirectional language models.”<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">In ACL.</em></div><div><br data-mce-bogus="1"></div><div>[Peters et al., 2018] Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. 2018. “Deep contextualized word representations”.<span> </span><em data-mce-style="box-sizing: border-box;" style="box-sizing: border-box;">In NAACL.</em></div><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000;" data-mce-style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000;"><div><div class="entry-author" style="box-sizing: border-box; margin: 40px 0px; padding: 20px; border: 1px solid #ebedf0; border-radius: 5px; color: #4a474b; font-family: Lato, sans-serif; font-size: 16px; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: 2; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff; text-decoration-style: initial; text-decoration-color: initial;" data-mce-style="box-sizing: border-box; margin: 40px 0px; padding: 20px; border: 1px solid #ebedf0; border-radius: 5px; color: #4a474b; font-family: Lato, sans-serif; font-size: 16px; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: 2; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #ffffff; text-decoration-style: initial; text-decoration-color: initial;"><div class="row" style="box-sizing: border-box; margin-right: -15px; margin-left: -15px;" data-mce-style="box-sizing: border-box; margin-right: -15px; margin-left: -15px;"><div class="author-avatar col-sm-3" style="box-sizing: border-box; position: relative; min-height: 1px; padding-right: 15px; padding-left: 15px; float: left; width: 171.375px;" data-mce-style="box-sizing: border-box; position: relative; min-height: 1px; padding-right: 15px; padding-left: 15px; float: left; width: 171.375px;"><a href="https://team.inria.fr/multispeech/author/illina/" rel="author" style="box-sizing: border-box; background-color: transparent; color: #af1917; text-decoration: none;" target="_blank" data-mce-style="box-sizing: border-box; background-color: transparent; color: #af1917; text-decoration: none;"></a><br><br></div></div></div></div></div></div></div></body></html>