<html><body><div style="font-family: arial, helvetica, sans-serif; font-size: 12pt; color: #000000"><div> <!--StartFragment--><h1><span style="font-size: 16pt;" data-mce-style="font-size: 16pt;">Post-doc position: <span id="DWT250"><span id="DWT282">Pattern</span></span> <span id="DWT252"><span id="DWT284">mining</span></span> for Neural Networks debugging: application to speech recognition</span></h1><div><strong>Advisors</strong>:  Elisa Fromont & Alexandre Termier, IRISA/INRIA RBA – Lacodam team (Rennes)<br></div><div><p>Irina Illina & Emmanuel Vincent, LORIA/INRIA  – Multispeech team (Nancy)<br><span role="link" id="OBJ_PREFIX_DWT253_ZmEmailObjectHandler"><span role="link" id="OBJ_PREFIX_DWT285_ZmEmailObjectHandler">firstname.lastname@inria.fr</span></span></p><p><strong>Location</strong>: INRIA RBA, team Lacodam (Rennes)</p><p><strong>Keywords: </strong>discriminative <span id="DWT255"><span id="DWT287">pattern</span></span> <span id="DWT257"><span id="DWT289">mining</span></span>, neural networks analysis, explainability of black<br>box models, speech recognition.</p><p><strong>Deadline to apply</strong>: September 30th, 2019</p><p><strong>Context:</strong></p><p>Understanding the inner working of deep neural networks (DNN) has attracted a lot of  attention in the past years [1, 2] and most problems were detected and analyzed using visualization techniques [3, 4].  Those techniques help to understand what an individual neuron  or a layer of neurons are computing. We would like to go beyond this by focusing on groups of neurons which are commonly highly activated when a network is making wrong predictions on a set of examples. In the same line as [1], where the authors theoretically link how a training example affects the predictions for a test example using the so called “influence functions”, we would like to design a tool to “debug” neural networks by identifying, using symbolic data <span id="DWT259"><span id="DWT291">mining</span></span> methods, (connected) parts of the neural network architecture associated with erroneous or uncertain outputs.</p><p>In the context of speech recognition, this is especially important. A speech recognition system contains two main parts: an acoustic model and a language model. Nowadays models are trained with deep neural networks-based algorithms (DNN) and use very large learning corpora to train an important number of DNN hyperparameters. There are many works to automatically tune these hyperparameters. However, this induces a huge computational cost, and does not empower the human designers. It would be much more efficient to provide human designers with understandable clues about the reasons for the bad performance of the system, in order to benefit from their creativity to quickly reach more promising regions of the hyperparameter search space.</p><p><strong>Description of the position:</strong></p><p>This position is funded in the context of the HyAIAI “Hybrid Approaches for Interpretable AI” INRIA project lab (<span role="link" id="OBJ_PREFIX_DWT260_com_zimbra_url"><span role="link" id="OBJ_PREFIX_DWT292_com_zimbra_url"><a target="_blank" href="https://www.inria.fr/en/research/researchteams/inria-project-labs" data-mce-href="https://www.inria.fr/en/research/researchteams/inria-project-labs">https://www.inria.fr/en/research/researchteams/inria-project-labs</a></span></span>). With this position, we would like to go beyond the current common visualization techniques that help to understand what an individual neuron or a layer of neurons is computing, by focusing on groups of neurons that are commonly highly activated when a network is making wrong predictions on a set of examples. Tools such as activation maximization [8] can be used to identify such neurons. We propose to use discriminative<span id="DWT262"><span id="DWT294">pattern</span></span> <span id="DWT264"><span id="DWT296">mining</span></span>, and, to begin with, the DiffNorm algorithm [6] in conjunction with the LCM one [7] to identify the discriminative activation patterns among the identified neurons.</p><p>The data will be provided by the MULTISPEECH team and will consist of two deep architectures as  representatives of acoustic and language models [9, 10]. Furthermore, the training data will be  provided, where the model parameters ultimately derive from. We will also extend our results by performing experiments with supervised and unsupervised learning to compare the features learned by these networks and to perform qualitative comparisons of the solutions learned by various deep architectures. Identifying “faulty” groups of neurons could lead to the decomposition of the DL network into “blocks” encompassing several layers. “Faulty” blocks may be the first to be modified in the search for a better design.</p><p>The recruited person will benefit from the expertise of the LACODAM team in <span id="DWT266"><span id="DWT298">pattern</span></span> <span id="DWT268"><span id="DWT300">mining</span></span> and deep learning (<span role="link" id="OBJ_PREFIX_DWT269_com_zimbra_url"><span role="link" id="OBJ_PREFIX_DWT301_com_zimbra_url"><a target="_blank" href="https://team.inria.fr/lacodam/" data-mce-href="https://team.inria.fr/lacodam/">https://team.inria.fr/lacodam/</a></span></span>) and of the expertise of the MULTISPEECH team  (<span role="link" id="OBJ_PREFIX_DWT270_com_zimbra_url"><span role="link" id="OBJ_PREFIX_DWT302_com_zimbra_url"><a target="_blank" href="https://team.inria.fr/multispeech/" data-mce-href="https://team.inria.fr/multispeech/">https://team.inria.fr/multispeech/</a></span></span>) in speech analysis, language processing and deep learning. We would ideally like to recruit a 1 year (with possibly one additional year) post-doc with the following preferred skills:<br>• Some knowledge (interest) about speech recognition<br>• Knowledgeable in <span id="DWT272"><span id="DWT304">pattern</span></span> <span id="DWT274"><span id="DWT306">mining</span></span> (discriminative <span id="DWT276"><span id="DWT308">pattern</span></span> <span id="DWT278"><span id="DWT310">mining</span></span> is a plus)<br>• Knowledgeable in machine learning in general and deep learning particular<br>• Good programming skills in Python (for Keras and/or Tensor Flow)<br>• Very good English (understanding and writing)</p><p> See the INRIA web site for the post-doc page.</p><p>The candidates should send a CV, 2 names of referees and a cover letter to the four researchers (<span role="link" id="OBJ_PREFIX_DWT280_ZmEmailObjectHandler"><span role="link" id="OBJ_PREFIX_DWT312_ZmEmailObjectHandler">firstname.lastname@inria.fr</span></span>) mentioned above. Please indicate if you are applying for the post-doc or the PhD position. The selected candidates will be interviewed in September for an expected start in October-November 2019.</p><p><strong>Bibliography:</strong></p><p>[1] Pang Wei Koh, Percy Liang: Understanding Black-box Predictions via Influence Functions. ICML 2017: pp 1885-1894 (best paper).</p><p>[2] Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, Oriol Vinyals: Understanding deep learning requires rethinking generalization. ICLR 2017.</p><p>[3] Anh Mai Nguyen, Jason Yosinski, Jeff Clune: Deep neural networks are easily fooled: High confidence predictions for unrecognizable images. CVPR 2015: pp 427-436.</p><p>[4] Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow, Rob Fergus: Intriguing properties of neural networks. ICLR 2014.</p><p>[5] Bin Liang, Hongcheng Li, Miaoqiang Su, Pan Bian, Xirong Li, Wenchang Shi: Deep Text Classification Can be Fooled. IJCAI 2018: pp 4208-4215.</p><p>[6] Kailash Budhathoki and Jilles Vreeken. The difference and the norm—characterising similarities and differences between databases. In Joint European Conference on Machine Learning and  Knowledge Discovery in Databases, pages 206–223. Springer, 2015.</p><p>[7] Takeaki Uno, Tatsuya Asai, Yuzo Uchida, and Hiroki Arimura. Lcm: An efficient algorithm for enumerating frequent closed item sets. In Fimi, volume 90. Citeseer, 2003.</p></div><!--EndFragment--> </div><div><br></div><div data-marker="__SIG_POST__">-- <br></div><div>Irina Illina<br><br>Associate Professor <br>Lorraine University<br>LORIA-INRIA<br>Multispeech Team<br>office C147 <br>Building C <br>615 rue du Jardin Botanique<br>54600 Villers-les-Nancy Cedex<br>Tel:+ 33 3 54 95 84 90</div></div></body></html>