<div dir="ltr"><div>Dear All.<br>Our publication in Physica A (Statistical Mechanics and its Applications) </div><i><b>Phase transition analysis for shallow neural networks with arbitrary activation functions</b></i><div>Otavio Citton, Frederieke Richert, Michael Biehl</div><div>is available (open access) at <div><a href="https://kwnsfk27.r.eu-west-1.awstrack.me/L0/https:%2F%2Fdoi.org%2F10.1016%2Fj.physa.2025.130356/1/010201946fb3ac5b-08eb8e1e-e3e2-4948-9f7f-d0fb6ddaef50-000000/LipkKfH2JDwvLfGBsKLrX4Q1fZI=409" target="_blank" style="color:rgb(0,115,152);text-align:-webkit-center">https://doi.org/10.1016/j.physa.2025.130356</a></div><div><br></div>Highlights</div><div>• We present a statistical physics analysis of layered neural networks with arbitrary activation functions.<br>• The method employs a Hermite polynomial series representation of the activation function.<br>• The analysis enables the characterization of phase transitions in the learning curve for any activation function.<br>• The approach allows the analytical study of student–teacher scenario with mismatched activation functions.<div><br></div><div>Best regards,</div><div>Michael Biehl </div><div><br clear="all"></div><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>---------------------------------------------------<br></div>
<div>Prof. Dr. Michael Biehl</div>
<div>Bernoulli Institute for Mathematics, </div><div>Computer Science & Artificial Intelligence</div>
<div>P.O. Box 407, 9700 AK Groningen, NL</div>
<div>https://<a href="http://www.cs.rug.nl/~biehl" target="_blank">www.cs.rug.nl/~biehl</a>     <a href="mailto:m.biehl@rug.nl" target="_blank">m.biehl@rug.nl</a></div></div></div></div></div></div></div></div></div>