<div dir="ltr"><div>Dear all,</div><div><br></div><div><div><span style="white-space:pre-wrap">We are pleased to announce that the next speaker of the </span><b style="white-space:pre-wrap">“I Can’t Believe It’s Not Better!” (</b><span style="white-space:pre-wrap"><b>ICBINB)</b> virtual seminar series will be </span><b>Finale Doshi-Velez</b><span style="white-space:pre-wrap"><b> (</b></span><b>Harvard University</b><b style="white-space:pre-wrap">)</b><span style="white-space:pre-wrap">.</span><b style="white-space:pre-wrap"> </b><span style="white-space:pre-wrap">More details about this series and the talk are below.</span></div><div><span style="white-space:pre-wrap"><br></span></div><div><span style="white-space:pre-wrap">The <b>"I Can't Believe It's Not Better!" (ICBINB) monthly online seminar series</b> seeks to shine a light on the "stuck" phase of research. Speakers will tell us about their most beautiful ideas that didn't "work", about when theory didn't match practice, or perhaps just when the going got tough. These talks will let us peek inside the file drawer of unexpected results and peer behind the curtain to see the real story of <i>how real researchers did real research</i>.</span></div><div><span style="white-space:pre-wrap"><b><br></b></span></div><div><span style="white-space:pre-wrap"><b>When: </b></span>June 16th, 2022 at 10am EDT / 4pm CEST</div><div>(<u>Note</u>: This talk is happening on the 3rd Thursday of June.)</div><br><div><span style="white-space:pre-wrap"><b>Where: </b>RSVP for the Zoom link here: </span><a href="https://us02web.zoom.us/meeting/register/tZAtf-morzMsGdSvoCNiIp9OECQkyVBjgygn" target="_blank">https://us02web.zoom.us/meeting/register/tZAtf-morzMsGdSvoCNiIp9OECQkyVBjgygn</a><span style="white-space:pre-wrap"><br></span></div></div><div><br></div><div><b>Title:</b> <i>Research Process for Interpretable Machine Learning</i><br><br><b>Abstract:</b> <i>There has been much interest in interpretable machine learning (and/or explainable AI) as a way to allow domain experts to vet machine learning systems as well as a way to assist in human+AI teaming. In this "chalk" talk, I'll briefly provide a framework for thinking about the interdisciplinary ecosystem that interpretable machine learning provides and then dive into the process of doing high-quality, impactful machine learning research. Specifically, I'll talk about:<br>- What are the kinds of interpretable machine learning questions that are computational and what are human factors?<br>- How and when should we define abstractions between computational and human factor elements in interpretable machine learning?<br>- When is a user study needed, and how should it be set up?<br>In the spirit of ICBINB, I'll draw my own experience, including examples of times when I think we got things right, and when we could have done better.</i></div><div><br><b>Bio:</b> <i>Finale Doshi-Velez is a Gordon McKay Professor in Computer Science at the Harvard Paulson School of Engineering and Applied Sciences. She completed her MSc from the University of Cambridge as a Marshall Scholar, her PhD from MIT, and her postdoc at Harvard Medical School. Her interests lie at the intersection of machine learning, healthcare, and interpretability.</i><br></div><div><br></div><div><div><span style="white-space:pre-wrap">For more information and for ways to get involved, please visit us at <a href="http://icbinb.cc/" target="_blank">http://icbinb.cc/</a>, Tweet to us <a href="https://twitter.com/ICBINBWorkshop" target="_blank">@ICBINBWorkhop</a>, or email us at <a href="mailto:cant.believe.it.is.not.better@gmail.com" target="_blank">cant.believe.it.is.not.better@gmail.com</a>.</span></div><div><span style="white-space:pre-wrap"><br></span></div>--<br><div dir="ltr"><div dir="ltr"><div>Best wishes,</div>The ICBINB Organizers<font color="#888888"><div></div><div></div><div><br></div></font></div></div></div></div>