<html><head><meta http-equiv="Content-Type" content="text/html charset=windows-1252"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;"><div>IEEE Transactions on Neural Networks and Learning Systems </div><div>Special Issue on "Deep Reinforcement Learning and Adaptive Dynamic Programming” </div><div><br></div><div><b>Call for Papers</b>: </div><div><br></div><div>In the first issue of Nature 2015, Google DeepMind published a paper “Human-level control through deep reinforcement learning”. Furthermore, in the first issue of Nature 2016, it published a cover paper “Mastering the game of Go with deep neural networks and tree search” again and proposed the computer Go program, AlphaGo. In March 2016, AlphaGo beat the world’s top Go player Lee Sedol by 4:1. This becomes a new milestone in artificial intelligence history, the core of which is the algorithm of deep reinforcement learning. </div><div><br></div><div>Deep reinforcement learning is able to output control signal directly based on input images, which incorporates both the advantages of the perception of deep learning and the decision making of reinforcement learning (RL) or adaptive dynamic programming (ADP). This mechanism makes the artificial intelligence much closer to human thinking modes. Deep RL or ADP has achieved remarkable success in terms of theory and application since it is proposed. Successful applications cover video games, Go, robotics, smart driving, healthcare, and so on. </div><div><br></div><div>However, it is still an open problem of the theoretical analysis on deep RL or ADP, e. g., the convergence, stability, and optimality. The learning efficiency needs to be improved by proposing new algorithms or combined with other methods. More practical demonstrations are encouraged to be presented. Therefore, the aim of this special issue is to call for the most advanced research and state-of-the-art works in the field of deep RL or ADP. All the original papers related are welcome. Specific topics of interest include but are not limited to:</div><div><br></div><div>•<span class="Apple-tab-span" style="white-space:pre">     </span>New algorithms of deep RL or ADP;</div><div>•<span class="Apple-tab-span" style="white-space:pre">   </span>Theory of deep RL or ADP;</div><div>•<span class="Apple-tab-span" style="white-space:pre">   </span>Deep RL or ADP with transfer learning;</div><div>•<span class="Apple-tab-span" style="white-space:pre">      </span>Deep RL or ADP with advanced search algorithms;</div><div>•<span class="Apple-tab-span" style="white-space:pre">     </span>Multi-agent RL or ADP; </div><div>•<span class="Apple-tab-span" style="white-space:pre">        </span>Hierarchical RL or ADP; </div><div>•<span class="Apple-tab-span" style="white-space:pre">       </span>Event-driven RL or ADP; </div><div>•<span class="Apple-tab-span" style="white-space:pre">       </span>Theoretical foundation of RL or ADP in convergence, stability, robustness, and etc. ; </div><div>•<span class="Apple-tab-span" style="white-space:pre"> </span>Data-driven learning and control; </div><div>•<span class="Apple-tab-span" style="white-space:pre">     </span>Control with advanced machine learning;</div><div>•<span class="Apple-tab-span" style="white-space:pre">     </span>Optimal decision and control of cyber-physical systems;</div><div>•<span class="Apple-tab-span" style="white-space:pre">     </span>Autonomous decision and control using neural structures;</div><div>•<span class="Apple-tab-span" style="white-space:pre">    </span>Brain-like control design and applications;</div><div>•<span class="Apple-tab-span" style="white-space:pre"> </span>New neural network topologies from neurocognitive psychology studies;</div><div>•<span class="Apple-tab-span" style="white-space:pre">       </span>Neurocomputing structures for fast decision and control in dynamic environments;</div><div>•<span class="Apple-tab-span" style="white-space:pre">    </span>Applications in realistic and complicated systems.</div><div><br></div><div><b>IMPORTANT DATES </b></div><div><br></div><div><b><font color="#ff4013">30 March 2017 – Deadline for manuscript submission</font></b> </div><div>30 June 2017 – Notification of authors</div><div>30 July 2017 – Deadline for submission of revised manuscripts </div><div>30 September 2017 – Final decision of acceptance</div><div>November 2017- tentative publication date</div><div><br></div><div><b>GUEST EDITORS </b></div><div><b><br></b></div><div>D. Zhao, Institute of Automation, Chinese Academy of Sciences, China.</div><div>D. Liu, Universtiy of Science and Technology, China. </div><div>F. L. Lewis, University of Texas at Arlington, USA.</div><div>J. Principe, University of Florida, Gainesville, USA. </div><div>R. Babuska, Delft University of Technology, the Netherlands.</div><div><br></div><div><b>SUBMISSION INSTRUCTIONS</b></div><div><b><br></b></div><div>1. Read the information for Authors at <a href="http://cis.ieee.org/tnnls">http://cis.ieee.org/tnnls</a>.</div><div>2. Submit your manuscript at the TNNLS webpage (<a href="http://mc.manuscriptcentral.com/tnnls">http://mc.manuscriptcentral.com/tnnls</a>) and follow the submission procedure. Please, clearly indicate on the first page of the manuscript and in the cover letter that the manuscript is submitted to the special issue on Deep Reinforcement Learning and Adaptive Dynamic Programming. Send an email to guest editor D. Zhao (<a href="mailto:dongbin.zhao@ia.ac.cn">dongbin.zhao@ia.ac.cn</a>) with subject “TNNLS special issue submission” to notify about your submission.</div><div>3. Early submissions are welcome. We will start the review process as soon as we receive your contributions.</div><div><br></div><div><br></div><div><br></div></body></html>