<html>
  <head>
    <meta http-equiv="Content-Type" content="text/html; charset=UTF-8">
  </head>
  <body text="#000000" bgcolor="#ecca99">
    <pre class="moz-quote-pre" wrap="">Juergen:

'And even today, many students are taught NNs like this: let's start with a linear single-layer NN (activation = sum of weighted inputs). Now minimize mean squared error on the training set. That's good old linear regression (method of least squares"

Indeed there are many thing students are taught that are wrong or misleading for simplification or from ignorance..  That doesn't justify more of them.

So this is multiple linear regression you are talking about it..  but, again  a different model from a Neural Network.

Not a matter of math.. not talking eigenvectors here, we are still talking about a model of a biological neuron.   Maybe not a great model, but a step in the direction of brain like modeling.   Multiple regression is not such a model.

minimizing sums of squares and taking partials wrt parameters will result in formulae for beta weights and intercepts.  A useful model for interpreting the linear effects of non-collinear variables on a response.   widely useful in many scientific fields.    But not a Neural Network--not a model of neurons and synapses and dendrites.  Nonetheless, a useful pragmatic model developed for matrices of data with multiple variables and observations.

There was simply no reason that Frank Rosenblatt should have referenced this math, as it had nothing whatsoever to do with the Perceptron, since no partials of sums of squares could be computed.   Its the math and should be clear now.

Steve
</pre>
    <div class="moz-cite-prefix">On 1/2/22 8:43 AM, Schmidhuber Juergen
      wrote:<br>
    </div>
    <blockquote type="cite"
      cite="mid:BC370FCD-7753-4855-AED5-C4ACEBF8DA48@supsi.ch">
      <pre class="moz-quote-pre" wrap="">And even today, many students are taught NNs like this: let's start with a linear single-layer NN (activation = sum of weighted inputs). Now minimize mean squared error on the training set. That's good old linear regression (method of least squares</pre>
    </blockquote>
    <div class="moz-signature">-- <br>
      <img src="cid:part1.FF37BD84.4FD824B9@rubic.rutgers.edu"
        border="0"></div>
  </body>
</html>