<div dir="ltr"><div class="gmail_default"><font face="arial, sans-serif">Yichong Xu will be giving a seminar on  "<span style="color:rgb(0,0,0)">Efficient Learning from Diverse Sources of Information</span>" from <u>12:00 - 01:00 PM</u> in Newell Simon Hall (NSH) 3305.</font></div><div class="gmail_default"><font face="arial, sans-serif"><br></font></div><div class="gmail_default"><font face="arial, sans-serif">CMU <span class="gmail-il">AI</span> Seminar is sponsored by Fortive. Lunch will be served.</font></div><div class="gmail_default"><font face="arial, sans-serif"><br></font></div><div class="gmail_default"><font face="arial, sans-serif">Following are the details of the talk:</font></div><div class="gmail_default"><font face="arial, sans-serif"><br></font></div><div class="gmail_default"><font face="arial, sans-serif"><b>Title: </b>Efficient Learning from Diverse Sources of Information<br></font></div><div class="gmail_default"><font face="arial, sans-serif"><br></font></div><div class="gmail_default"><font face="arial, sans-serif"><b>Abstract:</b> <span style="color:rgb(0,0,0)">Although machine learning has witnessed rapid progress in the last decade, many current learning algorithms are very inefficient in terms of the amount of data it uses, and the time used to train the model. On the other hand, humans excel at many of the learning tasks with very limited data. Why are machines so inefficient, and why can humans learn so well? The key to the answer lies in that humans can learn from diverse sources of information, and are able to use past knowledge to apply in new domains. In this talk, I will study learning from diverse sources of information to make ML algorithms more efficient. In the first part, I will talk about how to incorporate diverse forms of questions into the learning process. Particularly, I will look at the problem of utilizing preference information for learning a regression function and show an interesting connection to nearest neighbors and isotonic regression. In the second part, I will talk about multitask and transfer learning from different domains for natural language understanding. I will explain a sample-reweighting scheme using language models to automatically weight external-domain samples according to their help for the target task.</span></font></div><div class="gmail_default"><span style="color:rgb(0,0,0)"><font face="arial, sans-serif"><br></font></span></div><div class="gmail_default"><font face="arial, sans-serif"><span style="color:rgb(0,0,0)"><b>Bio</b>: </span><span style="color:rgb(0,0,0)">Yichong Xu is a Ph.D. student in Machine Learning Department of Carnegie Mellon University. He works on machine learning, especially on interactive learning problems, with his advisors Profs. Artur Dubrawski and Aarti Singh.</span></font></div><div class="gmail_default"><br></div><div class="gmail_default"><font face="arial, sans-serif">To learn more about the seminar series, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">website</a>. </font></div><div><br></div>-- <br><div dir="ltr" class="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div style="margin:0px;padding:0px 0px 20px;width:864px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif"><div><div style="margin:8px 0px 0px;padding:0px"><div><div dir="ltr"><div><font color="#444444">Aayush Bansal</font><br></div><div><a href="http://www.cs.cmu.edu/~aayushb/" target="_blank">http://www.cs.cmu.edu/~aayushb/</a></div></div></div></div></div></div></div></div></div></div></div></div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div><div dir="ltr"><div style="margin:0px;padding:0px 0px 20px;width:864px;font-family:Roboto,RobotoDraft,Helvetica,Arial,sans-serif"><div><div style="margin:8px 0px 0px;padding:0px"><div><div style="font-size:medium"></div><div style="font-size:medium"></div></div></div><div style="font-size:medium"></div></div></div></div></div></div></div></div></div></div>