<html><body><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000"><div> <!--StartFragment--><h1 class="post-title entry-title" style="box-sizing: border-box; margin: 0px; font-size: 30px; font-family: Lato, sans-serif; font-weight: bold; line-height: normal; color: #af1917; border: 0px none; padding: 0px; font-style: normal; overflow-wrap: break-word; font-variant-ligatures: normal; font-variant-caps: normal; letter-spacing: normal; orphans: 2; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #dddddd; text-decoration-style: initial; text-decoration-color: initial;" data-mce-style="box-sizing: border-box; margin: 0px; font-size: 30px; font-family: Lato, sans-serif; font-weight: bold; line-height: normal; color: #af1917; border: 0px none; padding: 0px; font-style: normal; overflow-wrap: break-word; font-variant-ligatures: normal; font-variant-caps: normal; letter-spacing: normal; orphans: 2; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #dddddd; text-decoration-style: initial; text-decoration-color: initial;">Post-doc/PhD position Pattern mining for Neural Networks debugging: application to speech recognition</h1><div class="entry-content clearfix" style="box-sizing: border-box; zoom: 1; clear: both; padding-top: 1.5em; color: #4a474b; font-family: Lato, sans-serif; font-size: 16px; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: 2; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #dddddd; text-decoration-style: initial; text-decoration-color: initial;" data-mce-style="box-sizing: border-box; zoom: 1; clear: both; padding-top: 1.5em; color: #4a474b; font-family: Lato, sans-serif; font-size: 16px; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: 2; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; background-color: #dddddd; text-decoration-style: initial; text-decoration-color: initial;"><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;"><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Advisors</strong>:  Elisa Fromont & Alexandre Termier, IRISA/INRIA RBA – Lacodam team (Rennes)<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">Irina Illina & Emmanuel Vincent, LORIA/INRIA  – Multispeech team (Nancy)<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">firstname.lastname@inria.fr</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;"><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Location:</strong><span> </span>INRIA RBA, team Lacodam (Rennes)</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;"><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Keywords:</strong><span> </span>discriminative pattern mining, neural networks analysis, explainability of black<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">box models, speech recognition.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;"><br data-mce-bogus="1"></p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;"><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Context:</strong></p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;">Understanding the inner working of deep neural networks (DNN) has attracted a lot of  attention in the past years [1, 2] and most problems were detected and analyzed using visualization techniques [3, 4].  Those techniques help to understand what an individual neuron  or a layer of neurons are computing. We would like to go beyond this by focusing on<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">groups of neurons</strong><span> </span>which are commonly highly activated when a network is making wrong predictions on a set of examples. In the same line as [1], where the authors theoretically link how a training example affects the predictions for a test example using the so called “influence functions”, we would like to design a<strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><span> </span>tool to “debug” </strong><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">neural networks</strong><span> </span>by identifying, using symbolic data mining methods, (connected) parts of the neural network architecture associated with erroneous or uncertain outputs.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">In the context of<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">speech recognition,</strong><span> </span>this is especially important. A speech recognition system contains two main parts: an acoustic model and a language model. Nowadays models are trained with deep neural networks-based algorithms (DNN) and use very large learning corpora to train an important number of DNN hyperparameters. There are many works to automatically tune these hyperparameters. However, this induces a huge computational cost, and does not empower the human designers. It would be much more efficient to provide human designers with understandable clues about the reasons for the bad performance of the system, in order to benefit from their creativity to quickly reach more promising regions of the hyperparameter search space.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;"><br data-mce-bogus="1"></p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;"><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Description of the position</strong>:</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">This position is funded in the context of the<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">HyAIAI “Hybrid </strong><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Approaches for Interpretable AI”</strong><span> </span>INRIA project lab (https://www.inria.fr/en/research/researchteams/inria-project-labs). With this position, we would like to go beyond the current common visualization techniques that help to understand what an individual neuron or a layer of neurons is computing, by focusing on groups of neurons that are commonly highly activated when a network is making wrong predictions on a set of examples. Tools such as activation maximization [8] can be used to identify such neurons. We propose to use discriminative pattern mining, and, to begin with, the DiffNorm algorithm [6] in conjunction with the LCM one [7] to identify the discriminative activation patterns among the identified neurons.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">The data will be provided by the MULTISPEECH team and will consist of two deep architectures as  representatives of acoustic and language models [9, 10]. Furthermore, the training data will be  provided, where the model parameters ultimately derive from. We will also extend our results by performing experiments with supervised and unsupervised learning to compare the features learned by these networks and to perform qualitative comparisons of the solutions learned by various deep architectures. Identifying “faulty” groups of neurons could lead to the decomposition of the DL network into “blocks” encompassing several layers. “Faulty” blocks may be the first to be modified in the search for a better design.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">The recruited person will benefit from the expertise of the LACODAM team in pattern mining and deep learning (https://team.inria.fr/lacodam/) and of the expertise of the MULTISPEECH team  (https://team.inria.fr/multispeech/) in speech analysis, language processing and deep learning. We would ideally like to recruit a<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">1 year (with possibly one additional year)</strong><span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">post-doc</strong><span> </span>with the following preferred skills:<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">• Some knowledge (interest) about speech recognition<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">• Knowledgeable in pattern mining (discriminative pattern mining is a plus)<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">• Knowledgeable in machine learning in general and deep learning particular<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">• Good programming skills in Python (for Keras and/or Tensor Flow)<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">• Very good English (understanding and writing)</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">However,<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">good PhD applications</strong><span> </span>will also be considered and, in this case, the position will last 3 years. The position will be funded by INRIA (https://www.inria.fr/en/). See the INRIA web site for the post-doc and PhD wages.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">The candidates should send a CV, 2 names of referees and a cover letter to the<strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><span> </span>four researchers </strong>(firstname.lastname@inria.fr) mentioned above. Please indicate if you are applying for the post-doc or the PhD position. The selected candidates will be interviewed in June for an expected start in<br style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">September 2019.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;"><br data-mce-bogus="1"></p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px;"><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Bibliography:</strong></p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[1] Pang Wei Koh, Percy Liang: Understanding Black-box Predictions via Influence Functions.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">ICML </em>2017: pp 1885-1894 (best paper).</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[2] Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, Oriol Vinyals: Understanding deep learning requires rethinking generalization.<em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;"><span> </span>ICLR</em><span> </span>2017.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[3] Anh Mai Nguyen, Jason Yosinski, Jeff Clune: Deep neural networks are easily fooled: High confidence predictions for unrecognizable images.<em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;"><span> </span>CVPR</em><span> </span>2015: pp 427-436.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[4] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, Rob Fergus: Intriguing properties of neural networks.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">ICLR</em><span> </span>2014.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[5] Bin Liang, Hongcheng Li, Miaoqiang Su, Pan Bian, Xirong Li, Wenchang Shi: Deep Text Classification Can be Fooled.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">IJCAI</em><span> </span>2018: pp 4208-4215.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[6] Kailash Budhathoki and Jilles Vreeken. The difference and the norm—characterising similarities and differences between databases.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">In Joint European Conference on Machine Learning and  </em><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">Knowledge Discovery in Databases,</em><span> </span>pages 206–223. Springer, 2015.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[7] Takeaki Uno, Tatsuya Asai, Yuzo Uchida, and Hiroki Arimura. Lcm: An efficient algorithm for enumerating frequent closed item sets. In Fimi, volume 90. Citeseer, 2003.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[8] Dumitru Erhan, Yoshua Bengio, Aaron Courville, and Pascal Vincent. Visualizing higher-layer features of a deep network.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">University of Montreal,</em><span> </span>1341(3):1, 2009.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[9] G. Saon, H.-K. J. Kuo, S. Rennie, M. Picheny: The IBM 2015 English conversational telephone speech recognition system”,<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">Proc. Interspeech,</em><span> </span>pp. 3140-3144, 2015.</p><p style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;" data-mce-style="box-sizing: border-box; margin: 0px; border: 0px none; padding: 0px; text-align: justify;">[10] W. Xiong, L. Wu, F. Alleva, J. Droppo, X. Huang, A. Stolcke : The Microsoft 2017 Conversational Speech Recognition System,<em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;"><span> </span>IEEE ICASSP,</em><span> </span>2018.</p></div><!--EndFragment--><div style="clear: both;" data-mce-style="clear: both;"><br></div></div><div><br></div><div data-marker="__SIG_POST__">-- <br></div><div>Associate Professor <br>Lorraine University<br>LORIA-INRIA<br>office C147 <br>Building C <br>615 rue du Jardin Botanique<br>54600 Villers-les-Nancy Cedex<br>Tel:+ 33 3 54 95 84 90</div></div></body></html>