<div dir="ltr">Schmidhuber Juergen wrote: <br><br>"Steve, almost all of deep learning is about engineering and problem solving, not about explaining or modeling biological neurons/synapses/dendrites."<div><br></div><div>You would be surprised:  Any model about modeling biological brains needs CONSCIOUSNESS as a necessary condition.  </div><div><br></div><div>My model for biological brains has been rejected by AAAI 2021, ICDL 2021, and finally accepted by an IEEE Electronics Conference!  Human nature is blocking our capability to understand biological brains.  We often mention biological brains.  But when a model is presented, we cannot understand it by a huge margin.</div><div><br></div><div>As correctly challenged by Michael Jordan \cite{Gome14}, the present model must holistically solve some open problems.   The present work holistically solves the following 20  "million-dollar problems": <br><br>1. the image-annotation problem (e.g., giving retina a bounding box to learn as in ImageNet \cite{Russakovsky15}), <br><br>2. the sensorimotor recurrence problem (e.g., any big data sets are invalid \cite{WengPSUTS21}), <br><br>3. the motor-supervision problem (e.g., impractical to supervise motors all the time),<br><br>4. the sensor calibration problem (e.g., a life calibrates the eyes automatically), <br><br>5. the inverse kinematics problem (e.g., a life calibrates all redundant limbs automatically),<br><br>6. the government-free problem (i.e., no intelligent governments inside the brain), <br><br>7. the closed-skull problem (e.g., supervising hidden neurons are not biologically plausible), <br><br>8. the nonlinear controller problem (e.g., a brain is a highly nonlinear controller), <br><br>9. the curse of dimensionality problem (e.g., too many receptors on the retina), <br><br>10. the under-sample problem (i.e., few available events in a life \cite{WengLCA09}), <br><br>11. the distributed vs. local representations problem (i.e., both representations emerge),<br><br>12. the frame problem (also called symbol grounding problem, thus must be free from any symbols),  <br><br>13. the local minima problem (so, must avoid error-backprop learning \cite{Krizhevsky17,LeCun15}), <br><br>14. the abstraction problem (i.e., require various invariances and transfers) \cite{WengIEEE-IS2014}, <br><br>15. the rule-like manipulation problem (e.g., not just fitting big data \cite{Harnad90,WengIJHR2020}), <br><br>16. the smooth representations problem (e.g., so as to recruit neurons under brain injuries \cite{Elman97,Wu2019DN-2}), <br><br>17. the motivation problem (e.g., including reinforcement and various emotions \cite{Dreyfus92,WengNAI2e}), <br><br>18. the global optimality problem (e.g., comparisons under the Three Learning Conditions below\cite{WengPSUTS-ICDL21}), <br><br>19. the auto-programming for general purposes problem (e.g., writing a complex program \cite{WengIJHR2020}) and <br><br>20. the brain-thinking problem (e.g., planning and discovery \cite{Turing50,WuThink21}).  <br></div><div>





<p style="margin:0px;font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;font-size:12px;line-height:normal;font-family:Helvetica"><br></p>
<p style="margin:0px;font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;font-size:12px;line-height:normal;font-family:Helvetica"><br></p></div><div>Best regards,</div><div>-John <br>-- <br><div dir="ltr" data-smartmail="gmail_signature"><div dir="ltr">Juyang (John) Weng<br></div></div></div></div>