<div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Dear Connectionists.</div><div>We have  compared the use of ReLU and sigmoidal </div><div>activations in layered neural networks, using </div><div>methods from the statistical physics of learning. </div><div>Our analysis reveals fundamental differences in</div><div>training and generalization behavior even in simple,</div><div>shallow systems. A corresponding e-print </div><div>is available at <a href="https://arxiv.org/abs/1910.07476">https://arxiv.org/abs/1910.07476</a>: </div><div dir="ltr"><br></div><b>Hidden Unit Specialization in Layered Neural Networks: ReLU vs. Sigmoidal Activation</b><br>Elisa Oostwal, Michiel Straat, Michael Biehl<br><br>Abstract: <br>We study layered neural networks of rectified linear units (ReLU) in a modelling framework for stochastic training processes. The comparison with sigmoidal activation functions is in the center of interest. We compute typical learning curves for shallow networks with K hidden units in matching student teacher scenarios. The systems exhibit sudden changes of the generalization performance via the process of hidden unit specialization at critical sizes of the training set. Surprisingly, our results show that the training behavior of ReLU networks is qualitatively different from that of networks with sigmoidal activations. In networks with K >= 3 sigmoidal hidden units, the transition is discontinuous: Specialized network configurations co-exist and compete with states of poor performance even for very large training sets. On the contrary, the use of ReLU activations results in continuous transitions for all K: For large enough training sets, two competing, differently specialized states display similar generalization abilities, which coincide exactly for large networks in the limit K to infinity.</div><div dir="ltr"><br clear="all"><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div>----------------------------------------------------------</div>
<div> </div>
<div>Prof. Dr. Michael Biehl</div>
<div>Bernoulli Institute for</div>
<div>Mathematics, Computer Science</div><div>and Artificial Intelligence</div>
<div>P.O. Box 407, 9700 AK Groningen</div>
<div>The Netherlands</div>
<div><br>Tel. +31 50 363 3997  <br><br></div>
<div><a href="http://www.cs.rug.nl/~biehl" target="_blank">www.cs.rug.nl/~biehl</a></div>
<div><a href="mailto:m.biehl@rug.nl" target="_blank">m.biehl@rug.nl</a> </div></div></div></div></div></div></div></div></div></div>