<div dir="ltr"><div>Dear all,</div><div><br></div><div><div><span style="white-space:pre-wrap">We are pleased to announce that the next speaker of the </span><b style="white-space:pre-wrap">“I Can’t Believe It’s Not Better!” (</b><span style="white-space:pre-wrap"><b>ICBINB)</b> virtual seminar series will be </span><b>Mariia Vladimirova</b><span style="white-space:pre-wrap"><b> (</b></span><b>Inria Grenoble Rhone-Alpes</b><b style="white-space:pre-wrap">)</b><span style="white-space:pre-wrap">.</span><b style="white-space:pre-wrap"> </b><span style="white-space:pre-wrap">More details about this series and the talk are below.</span></div><div><span style="white-space:pre-wrap"><br></span></div><div><span style="white-space:pre-wrap">The <b>"I Can't Believe It's Not Better!" (ICBINB) monthly online seminar series</b> seeks to shine a light on the "stuck" phase of research. Speakers will tell us about their most beautiful ideas that didn't "work", about when theory didn't match practice, or perhaps just when the going got tough. These talks will let us peek inside the file drawer of unexpected results and peer behind the curtain to see the real story of <i>how real researchers did real research</i>.</span></div><div><span style="white-space:pre-wrap"><b><br></b></span></div><div><span style="white-space:pre-wrap"><b>When: </b></span>October 20th, 2022 at 10am EDT / 4pm CEST / 7am PDT</div><div><br></div><div><span style="white-space:pre-wrap"><b>Where: </b>RSVP for the Zoom link here: </span><a href="https://us02web.zoom.us/meeting/register/tZwtc--vqTsjE9MY5uo86UxMOsK6TLwSdHoU" target="_blank">https://us02web.zoom.us/meeting/register/tZwtc--vqTsjE9MY5uo86UxMOsK6TLwSdHoU</a><span style="white-space:pre-wrap"><br></span></div></div><div><br></div><div><b>Title:</b> <i>Heavy tails in Bayesian neural networks: expectation and reality</i><br><br><b>Abstract:</b><i> The finding of the connection between the Gaussian process and deep Bayesian neural networks in the wide limit increased the interest in research on Bayesian neural networks. On one side, it helped to reason about existing works and their assumptions, such as Gaussian activations assumption in the Edge of Chaos effect, or tuning priors over functions to get closer to some GP. On another side, it gave a new perspective to Bayesian neural networks that lead to the study of the training dynamics through the neural tangent kernel, improvements in variational inference, uncertainty quantification, and others.</i></div><i><br>However, empirically, the distance between a hidden unit distribution and a Gaussian process increased with depth for the same number of hidden units per layer. So one of the main directions became the study of the difference between finite and infinite width neural networks.<br><br>We showed the sub-Weibull and Weibull-tail properties of hidden units conjecturing that hidden units are heavier-tailed with going deeper in the network. This tail description reveals the difference between hidden units’ in finite- and infinite-widths. There are also parallel works that show the full description of hidden units’ distributions through Meijer G-functions that are consistent with our heavy-tailed result.<br><br>We found theoretically that the tail parameter increases linearly with depth. However, we could not observe the theoretical tail parameter empirically. At least, not that precise. In this talk, I give a retrospective on this line of work about the Bayesian neural networks. Further, I give details and possible explanations of our empirical results.</i><br><br><div><b>Bio:</b> <i>Mariia Vladimirova is a PostDoc researcher at <a href="https://www.inria.fr/fr/centre-inria-universite-grenoble-alpes" target="_blank">Inria Grenoble Rhone-Alpes</a> in the <a href="https://team.inria.fr/statify/" target="_blank">Statify</a> team. Her research mostly focuses on exploring distributional properties of Bayesian neural networks. More specifically, she is interested in explaining the difference between deep learning models of wide and shallow regimes in order to improve the interpretability and efficiency of the models.</i></div><i><br>Mariia Vladimirova did her graduate studies in <a href="https://team.inria.fr/statify/" target="_blank">Statify</a> and <a href="http://thoth.inrialpes.fr/" target="_blank">Thoth</a> teams under supervision of <a href="https://www.julyanarbel.com/" target="_blank">Julyan Arbel</a> and <a href="http://lear.inrialpes.fr/people/verbeek/" target="_blank">Jakob Verbeek</a>. During November 2019-January 2020, she was visiting <a href="https://trinity.duke.edu/" target="_blank">Duke University</a> and working on prior predictive distributions in BNNs under supervision of <a href="https://scholars.duke.edu/person/dunson" target="_blank">David Dunson</a>. Prior to that, she obtained my Bachelor degree at Moscow Institute of Physics and Technology (MIPT) and did the second year of Master program at Grenoble Institute of Technology (<a href="https://ensimag.grenoble-inp.fr/" target="_blank">Grenoble – INP, Ensimag</a>).</i><br><br><div><div><span style="white-space:pre-wrap">For more information and for ways to get involved, please visit us at <a href="http://icbinb.cc/" target="_blank">http://icbinb.cc/</a>, Tweet to us <a href="https://twitter.com/ICBINBWorkshop" target="_blank">@ICBINBWorkhop</a>, or email us at <a href="mailto:cant.believe.it.is.not.better@gmail.com" target="_blank">cant.believe.it.is.not.better@gmail.com</a>.</span></div><div><span style="white-space:pre-wrap"><br></span></div><div><span style="white-space:pre-wrap"><br></span></div>--<br><div dir="ltr"><div dir="ltr"><div>Best wishes,</div>The ICBINB Organizers</div><div class="gmail-yj6qo"></div><div class="gmail-adL"></div><div dir="ltr" class="gmail-adL"><br></div></div></div></div>