<div dir="ltr"><div>Dear all,</div><div><br></div><div><div><span style="white-space:pre-wrap">We are pleased to announce that the next speaker of the </span><b style="white-space:pre-wrap">“I Can’t Believe It’s Not Better!” (</b><span style="white-space:pre-wrap"><b>ICBINB)</b> virtual seminar series will be </span><b>Thomas Dietterich</b><span style="white-space:pre-wrap"><b> (</b></span><b>Oregon State University</b><b style="white-space:pre-wrap">)</b><span style="white-space:pre-wrap">.</span><b style="white-space:pre-wrap"> </b><span style="white-space:pre-wrap">More details about this series and the talk are below.</span></div><div><span style="white-space:pre-wrap"><br></span></div><div><span style="white-space:pre-wrap">The <b>"I Can't Believe It's Not Better!" (ICBINB) monthly online seminar series</b> seeks to shine a light on the "stuck" phase of research. Speakers will tell us about their most beautiful ideas that didn't "work", about when theory didn't match practice, or perhaps just when the going got tough. These talks will let us peek inside the file drawer of unexpected results and peer behind the curtain to see the real story of <i>how real researchers did real research</i>.</span></div><div><span style="white-space:pre-wrap"><b><br></b></span></div><div><span style="white-space:pre-wrap"><b>When: </b></span>July 7th, 2022 at 11am EDT / 5pm CEST</div><div>(<u>Note</u>: time different from usual one.)</div><div><br></div><div><span style="white-space:pre-wrap"><b>Where: </b>RSVP for the Zoom link here: </span><a href="https://us02web.zoom.us/meeting/register/tZUuf%E2%80%93hpzgvEtxEIOcuo1-PJ8wDkvqmR8L6" target="_blank">https://us02web.zoom.us/meeting/register/tZUuf–hpzgvEtxEIOcuo1-PJ8wDkvqmR8L6</a><span style="white-space:pre-wrap"><br></span></div></div><div><br></div><div><b>Title:</b> <i>Struggling to Achieve Novelty Detection in Deep Learning</i><br><br><b>Abstract: </b><i>In 2005, motivated by an open world computer vision application, I became interested in novelty detection. However, there were few methods available in computer vision at that time, and my research turned to studying anomaly detection in standard feature vector data. In that arena, many good algorithms were being published. Fundamentally, these methods rely on a notion of distance or density in feature space and detect anomalies as outliers in that space.</i></div><i>Returning to deep learning 10 years later, my students and I attempted, without much success. to apply these methods to the latent representations in deep learning. Other groups attempted to apply deep density models, again with limited success. Summary: I couldn’t believe it was not better. In the meantime, simple anomaly scores such as the maximum softmax probability of the max logit score were shown to be doing very well.<br>We decided that we had reached the limits of what macro-level analysis (error rates, AUC scores) could tell us about these techniques. It was time to look closely at the actual feature values. In this talk, I’ll show our analysis of feature activations and introduce the Familiarity Hypothesis, which states that the max logit/max softmax score is measuring the amount of familiarity in an image rather than the amount of novelty. This is a direct consequence of the fact that the only features that are learned are ones that capture variability in the training data. Hence, deep nets can only represent images that fall within this variability. Novel images are mapped into this representation, and hence cannot be detected as outliers.<br>I’ll close with some potential directions to overcome this limitation.</i><div><b><br></b></div><div><b>Bio:</b> <i>Dr. Dietterich (AB Oberlin College 1977; MS University of Illinois 1979; PhD Stanford University 1984) is Distinguished Professor Emeritus in the School of Electrical Engineering and Computer Science at Oregon State University.  Dietterich is one of the pioneers of the field of Machine Learning and has authored more than 225 refereed publications and two books. His current research topics include robust artificial intelligence, robust human-AI systems, and applications in sustainability.<br>Dietterich has devoted many years of service to the research community and was recently given the ACML and AAAI distinguished service awards. He is a former President of the Association for the Advancement of Artificial Intelligence and the founding president of the International Machine Learning Society. Other major roles include Executive Editor of the journal Machine Learning, co-founder of the Journal for Machine Learning Research, and program chair of AAAI 1990 and NIPS 2000. He currently serves as one of the moderators for the cs.LG category on arXiv.<br></i></div><div><br></div><div><div><span style="white-space:pre-wrap">For more information and for ways to get involved, please visit us at <a href="http://icbinb.cc/" target="_blank">http://icbinb.cc/</a>, Tweet to us <a href="https://twitter.com/ICBINBWorkshop" target="_blank">@ICBINBWorkhop</a>, or email us at <a href="mailto:cant.believe.it.is.not.better@gmail.com" target="_blank">cant.believe.it.is.not.better@gmail.com</a>.</span></div><div><span style="white-space:pre-wrap"><br></span></div>--<br><div dir="ltr"><div dir="ltr"><div>Best wishes,</div>The ICBINB Organizers<font color="#888888"><div></div><div></div><div><br></div></font></div></div></div></div>