<div dir="ltr"><div class="gmail_default" style="font-size:small"><div style="font-size:12.8px">The program is now available for <a href="http://www.ttic.edu/SNL2017/">the conference on Symbolic-Neural Learning</a> (SNL) to be held in Nagoya Japan July 7-8.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Registration deadline: <span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">Friday, June 9, 2017</span></span></div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Program:</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">First International Workshop on Symbolic-Neural Learning (<span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">July 7-8</span></span>)</div><div style="font-size:12.8px">Nagoya Congress Center, Japan</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">(<span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">Friday, July 7, 2017</span></span>)</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">13:00-13:10</span></span> Opening</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">13:10-14:10</span></span> Keynote talk I (invited): Yoshua Bengio</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">14:10-14:30</span></span> Coffee break</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">14:30-15:30</span></span> Keynote talk II: Masashi Sugiyama</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">15:30-15:40</span></span> Break</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">15:40-17:20</span></span> Session 1: Computer Vision</div><div style="font-size:12.8px">Weihua Hu, Takeru Miyato, Seiya Tokui, Eiichi Matsumoto and Masashi Sugiyama, Learning Discrete Representations via Information Maximizing Self-Augmented Training</div><div style="font-size:12.8px">Ruotian Luo and Gregory Shakhnarovich, Comprehension-guided referring expressions</div><div style="font-size:12.8px">Tristan Hascoet, Yasuo Ariki and Tetsuya Takiguchi, Semantic Web and Zero-Shot Learning of Large Scale Visual Classes.</div><div style="font-size:12.8px">Bowen Shi, Taehwan Kim, Jonathan Keane, Weiran Wang, Hao Tang, Gregory Shakhnarovich, Diane Brentari and Karen Livescu, Neural Models for Fingerspelling Recognition from Video</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">18:00-20:00</span></span> Banquet</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">(<span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">Saturday, July 8, 2017</span></span>)</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">9:00-10:00</span></span> Keynote talk III (invited): William Cohen</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">10:00-10:20</span></span> Coffee break</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">10:20-12:00</span></span> Session 2: Speech & Language</div><div style="font-size:12.8px">Andrea F. Daniele, Mohit Bansal and Matthew Walter, Navigational Instruction Generation as Inverse Reinforcement Learning with Neural Machine Translation</div><div style="font-size:12.8px">Kurt Junshean Espinosa, Riza Batista-Navarro and Sophia Ananiadou, 5Ws: What Went Wrong with Word embeddings</div><div style="font-size:12.8px">Shubham Toshniwal, Hao Tang, Liang Lu and Karen Livescu, Multitask Learning with Low-Level Auxiliary Tasks for Encoder-Decoder Based Speech Recognition</div><div style="font-size:12.8px">ohn Wieting, Mohit Bansal, Kevin Gimpel and Karen Livescu, Neural Architectures for Modeling Compositionality in Natural Language</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">12:00-13:30</span></span> Lunch break</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">13:30-14:30</span></span> Keynote talk IV: Jun-ichi Tsujii</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">14:30-15:30</span></span> Poster Session</div><div style="font-size:12.8px">Matthew Holland and Kazushi Ikeda, Variance reduction using biased gradient estimates</div><div style="font-size:12.8px">Zhenghang Cui, Issei Sato and Masashi Sugiyama, Stochastic Divergence Minimization for Biterm Topic Model</div><div style="font-size:12.8px">Yin Jun Phua, Sophie Tourret and Katsumi Inoue, Learning Logic Program Representation from Delayed Interpretation Transition Using Recurrent Neural Networks</div><div style="font-size:12.8px">Haiping Huang, Alireza Goudarzi and Taro Toyoizumi, Combining DropConnect and Feedback Alignment for Efficient Regularization in Deep Networks</div><div style="font-size:12.8px">Jen-Tzung Chien and Ching-Wei Huang, Variational and Adversarial Domain Adaptation</div><div style="font-size:12.8px">Miki Ueno, Comic Book Interpretation based on Deep Neural Networks</div><div style="font-size:12.8px">Nicholas Altieri, Sherdil Niyaz, Samee Ibraheem and John Denero, Improved Word and Symbol Embedding for Part-of-Speech Tagging</div><div style="font-size:12.8px">Marc Evrard, Makoto Miwa and Yutaka Sasaki, TTI's Approaches to Symbolic-Neural Learning*</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">15:30-17:35</span></span> Session 3: New Learning Approach</div><div style="font-size:12.8px">Tomoya Sakai, Marthinus Christoffel Du Plessis, Gang Niu and Masashi Sugiyama, Semi-Supervised Classification based on Positive-Unlabeled Classification</div><div style="font-size:12.8px">Han Bao, Masashi Sugiyama and Issei Sato, Multiple Instance Learning from Positive and Unlabeled Data</div><div style="font-size:12.8px">Tetsuya Hada, Akifumi Okuno and Hidetoshi Shimodaira, Deep Multi-view Representation Learning Based on Adaptive Weighted Similarity</div><div style="font-size:12.8px">Makoto Yamada, Koh Takeuchi, Tomoharu Iwata, John Shawe-Taylor and Samuel Kaski, Localized Lasso for High-Dimensional Regression</div><div style="font-size:12.8px">Tim Rocktaschel and Sebastian Riedel, End-to-end Differentiable Proving</div><div style="font-size:12.8px"><span class="gmail-aBn" tabindex="0"><span class="gmail-aQJ">17:40-17:50</span></span> Closing</div><div style="font-size:12.8px">------------------------------<wbr>---------------------------</div></div></div>