<html><body><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000"><div data-marker="__HEADERS__"><div><br></div><h3>Post-doc/PhD position Pattern mining for Neural Networks debugging: application to speech recognition</h3><h3><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;"><br data-mce-bogus="1"></strong></h3><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;"><br data-mce-bogus="1"></strong></div><div><strong data-mce-style="box-sizing: border-box; font-weight: bold;" style="box-sizing: border-box; font-weight: bold;">Advisors</strong>:  Elisa Fromont & Alexandre Termier, IRISA/INRIA RBA – Lacodam team (Rennes)</div></div><div data-marker="__QUOTED_TEXT__"><div><br></div><div>Irina Illina & Emmanuel Vincent, LORIA/INRIA  – Multispeech team (Nancy)<br></div><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000;" data-mce-style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000;"><div><br><div>firstname.lastname@inria.fr</div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><br></strong></div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Location:</strong><span> </span>INRIA RBA, team Lacodam (Rennes)</div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><br></strong></div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Keywords:</strong><span> </span>discriminative pattern mining, neural networks analysis, explainability of blackbox models, speech recognition.</div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><br></strong></div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Context:</strong></div><div>Understanding the inner working of deep neural networks (DNN) has attracted a lot of  attention in the past years [1, 2] and most problems were detected and analyzed using visualization techniques [3, 4].  Those techniques help to understand what an individual neuron  or a layer of neurons are computing. We would like to go beyond this by focusing on<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">groups of neurons</strong><span> </span>which are commonly highly activated when a network is making wrong predictions on a set of examples. In the same line as [1], where the authors theoretically link how a training example affects the predictions for a test example using the so called “influence functions”, we would like to design a<strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><span> </span>tool to “debug” </strong><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">neural networks</strong><span> </span>by identifying, using symbolic data mining methods, (connected) parts of the neural network architecture associated with erroneous or uncertain outputs.</div><br><div>In the context of<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">speech recognition,</strong><span> </span>this is especially important. A speech recognition system contains two main parts: an acoustic model and a language model. Nowadays models are trained with deep neural networks-based algorithms (DNN) and use very large learning corpora to train an important number of DNN hyperparameters. There are many works to automatically tune these hyperparameters. However, this induces a huge computational cost, and does not empower the human designers. It would be much more efficient to provide human designers with understandable clues about the reasons for the bad performance of the system, in order to benefit from their creativity to quickly reach more promising regions of the hyperparameter search space.</div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><br></strong></div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Description of the position</strong>:</div><br><div>This position is funded in the context of the<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">HyAIAI “Hybrid </strong><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Approaches for Interpretable AI”</strong><span> </span>INRIA project lab (https://www.inria.fr/en/research/researchteams/inria-project-labs). With this position, we would like to go beyond the current common visualization techniques that help to understand what an individual neuron or a layer of neurons is computing, by focusing on groups of neurons that are commonly highly activated when a network is making wrong predictions on a set of examples. Tools such as activation maximization [8] can be used to identify such neurons. We propose to use discriminative pattern mining, and, to begin with, the DiffNorm algorithm [6] in conjunction with the LCM one [7] to identify the discriminative activation patterns among the identified neurons.</div><br><div>The data will be provided by the MULTISPEECH team and will consist of two deep architectures as  representatives of acoustic and language models [9, 10]. Furthermore, the training data will be  provided, where the model parameters ultimately derive from. We will also extend our results by performing experiments with supervised and unsupervised learning to compare the features learned by these networks and to perform qualitative comparisons of the solutions learned by various deep architectures. Identifying “faulty” groups of neurons could lead to the decomposition of the DL network into “blocks” encompassing several layers. “Faulty” blocks may be the first to be modified in the search for a better design.</div><br><div>The recruited person will benefit from the expertise of the LACODAM team in pattern mining and deep learning (https://team.inria.fr/lacodam/) and of the expertise of the MULTISPEECH team  (https://team.inria.fr/multispeech/) in speech analysis, language processing and deep learning. We would ideally like to recruit a<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">1 year (with possibly one additional year)</strong><span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">post-doc</strong><span> </span>with the following preferred skills:</div><br><div>• Some knowledge (interest) about speech recognition</div><div>• Knowledgeable in pattern mining (discriminative pattern mining is a plus)</div><div>• Knowledgeable in machine learning in general and deep learning particular</div><div>• Good programming skills in Python (for Keras and/or Tensor Flow)</div><div>• Very good English (understanding and writing)</div><br><div>However,<span> </span><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">good PhD applications</strong><span> </span>will also be considered and, in this case, the position will last 3 years. The position will be funded by INRIA (https://www.inria.fr/en/). See the INRIA web site for the post-doc and PhD wages.</div><br><div>The candidates should send a CV, 2 names of referees and a cover letter to the<strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><span> </span>four researchers </strong>(firstname.lastname@inria.fr) mentioned above. Please indicate if you are applying for the post-doc or the PhD position. The selected candidates will be interviewed in June for an expected start in September 2019.<br></div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;"><br></strong></div><div><strong style="box-sizing: border-box; font-weight: bold;" data-mce-style="box-sizing: border-box; font-weight: bold;">Bibliography:</strong></div><div>[1] Pang Wei Koh, Percy Liang: Understanding Black-box Predictions via Influence Functions.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">ICML </em>2017: pp 1885-1894 (best paper).</div><div>[2] Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, Oriol Vinyals: Understanding deep learning requires rethinking generalization.<em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;"><span> </span>ICLR</em><span> </span>2017.</div><div>[3] Anh Mai Nguyen, Jason Yosinski, Jeff Clune: Deep neural networks are easily fooled: High confidence predictions for unrecognizable images.<em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;"><span> </span>CVPR</em><span> </span>2015: pp 427-436.</div><div>[4] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, Rob Fergus: Intriguing properties of neural networks.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">ICLR</em><span> </span>2014.</div><div>[5] Bin Liang, Hongcheng Li, Miaoqiang Su, Pan Bian, Xirong Li, Wenchang Shi: Deep Text Classification Can be Fooled.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">IJCAI</em><span> </span>2018: pp 4208-4215.</div><div>[6] Kailash Budhathoki and Jilles Vreeken. The difference and the norm—characterising similarities and differences between databases.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">In Joint European Conference on Machine Learning and  </em><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">Knowledge Discovery in Databases,</em><span> </span>pages 206–223. Springer, 2015</div><div>[7] Takeaki Uno, Tatsuya Asai, Yuzo Uchida, and Hiroki Arimura. Lcm: An efficient algorithm for enumerating frequent closed item sets. In Fimi, volume 90. Citeseer, 2003.</div><div>[8] Dumitru Erhan, Yoshua Bengio, Aaron Courville, and Pascal Vincent. Visualizing higher-layer features of a deep network.<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">University of Montreal,</em><span> </span>1341(3):1, 2009.</div><div>[9] G. Saon, H.-K. J. Kuo, S. Rennie, M. Picheny: The IBM 2015 English conversational telephone speech recognition system”,<span> </span><em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;">Proc. Interspeech,</em><span> </span>pp. 3140-3144, 2015.</div><div>[10] W. Xiong, L. Wu, F. Alleva, J. Droppo, X. Huang, A. Stolcke : The Microsoft 2017 Conversational Speech Recognition System,<em style="box-sizing: border-box;" data-mce-style="box-sizing: border-box;"><span> </span>IEEE ICASSP,</em><span> </span>2018.</div><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000;" data-mce-style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000;"><div><div style="clear: both;" data-mce-style="clear: both;"><br></div></div><br><div>-- <br></div><div>Associate Professor <br>Lorraine University<br>LORIA-INRIA<br>office C147 <br>Building C <br>615 rue du Jardin Botanique<br>54600 Villers-les-Nancy Cedex<br>Tel:+ 33 3 54 95 84 90</div></div><br></div><br></div><br></div><br><div data-marker="__SIG_POST__">-- <br></div><div>Bonne journée<br>Irina Illina<br><br>Maître de conférences, HDR,<br>Équipe Parole<br>bureau C147<br>LORIA/INRIA <br>Bâtiment C <br>615 rue du Jardin Botanique<br>54600 Villers-les-Nancy Cedex<br>Tel:+ 33 3 54 95 84 90<br><br></div></div></body></html>