<div dir="ltr">A gentle reminder that the talk will happen tomorrow (Tuesday) noon at NSH 3305.</div><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Nov 12, 2017 at 9:00 AM,  <span dir="ltr"><<a href="mailto:ai-seminar-announce-request@cs.cmu.edu" target="_blank">ai-seminar-announce-request@cs.cmu.edu</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send ai-seminar-announce mailing list submissions to<br>
        <a href="mailto:ai-seminar-announce@cs.cmu.edu">ai-seminar-announce@cs.cmu.edu</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="https://mailman.srv.cs.cmu.edu/mailman/listinfo/ai-seminar-announce" rel="noreferrer" target="_blank">https://mailman.srv.cs.cmu.<wbr>edu/mailman/listinfo/ai-<wbr>seminar-announce</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:ai-seminar-announce-request@cs.cmu.edu">ai-seminar-announce-request@<wbr>cs.cmu.edu</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:ai-seminar-announce-owner@cs.cmu.edu">ai-seminar-announce-owner@cs.<wbr>cmu.edu</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of ai-seminar-announce digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1.  AI Seminar sponsored by Apple -- Nika Haghtalab -- Nov   14<br>
      (Adams Wei Yu)<br>
<br>
<br>
------------------------------<wbr>------------------------------<wbr>----------<br>
<br>
Message: 1<br>
Date: Sat, 11 Nov 2017 23:03:08 +0000<br>
From: Adams Wei Yu <<a href="mailto:weiyu@cs.cmu.edu">weiyu@cs.cmu.edu</a>><br>
To: <a href="mailto:ai-seminar-announce@cs.cmu.edu">ai-seminar-announce@cs.cmu.edu</a><br>
Subject: [AI Seminar] AI Seminar sponsored by Apple -- Nika Haghtalab<br>
        -- Nov  14<br>
Message-ID:<br>
        <<a href="mailto:CABzq7er_Fy6MBoBHA4s31OnxwOD2CQKva8vmFU0wpA8CQxDOYg@mail.gmail.com">CABzq7er_<wbr>Fy6MBoBHA4s31OnxwOD2CQKva8vmFU<wbr>0wpA8CQxDOYg@mail.gmail.com</a>><br>
Content-Type: text/plain; charset="utf-8"<br>
<br>
Dear faculty and students,<br>
<br>
We look forward to seeing you next Tuesday, Nov 14, at noon in NSH 3305 for<br>
AI Seminar sponsored by Apple. To learn more about the seminar series,<br>
please visit the AI Seminar webpage <<a href="http://www.cs.cmu.edu/~aiseminar/" rel="noreferrer" target="_blank">http://www.cs.cmu.edu/~<wbr>aiseminar/</a>>.<br>
<br>
On Tuesday, Nika Haghtalab <<a href="https://www.cs.cmu.edu/~nhaghtal/" rel="noreferrer" target="_blank">https://www.cs.cmu.edu/~<wbr>nhaghtal/</a>> will give<br>
the following talk:<br>
<br>
Title: Algorithms for Generalized Topic Modeling<br>
<br>
Abstract:<br>
<br>
 Topic modeling is an area with significant recent work in the intersection<br>
of algorithms and machine learning. In standard topic models, a topic (such<br>
as sports, business, or politics) is viewed as a probability distribution<br>
\vec a_i over words, and a document is generated by first selecting a<br>
mixture \vec w over topics, and then generating words iid from the<br>
associated mixture \vec w^T A. Given a large collection of such documents,<br>
the goal is to recover the topic vectors and then to correctly classify new<br>
documents according to their topic mixture.<br>
<br>
In this work we consider a broad generalization of this framework in which<br>
words are no longer assumed to be drawn iid and instead a topic is a<br>
complex distribution over sequences of paragraphs. Since one could not hope<br>
to even represent such a distribution in general (even if paragraphs are<br>
given using some natural feature representation), we aim instead to<br>
directly learn a document classifier. That is, we aim to learn a predictor<br>
that given a new document, accurately predicts its topic mixture, without<br>
learning the distributions explicitly. We present several natural<br>
conditions under which one can do this efficiently and discuss issues such<br>
as noise tolerance and sample complexity in this model. More generally, our<br>
model can be viewed as a generalization of the multi-view or co-training<br>
setting in machine learning.<br>
<br>
This talk is based on joint work with Avrim Blum. To appear in AAAI 2018.<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <<a href="http://mailman.srv.cs.cmu.edu/pipermail/ai-seminar-announce/attachments/20171111/8f67edef/attachment-0001.html" rel="noreferrer" target="_blank">http://mailman.srv.cs.cmu.<wbr>edu/pipermail/ai-seminar-<wbr>announce/attachments/20171111/<wbr>8f67edef/attachment-0001.html</a>><br>
<br>
------------------------------<br>
<br>
Subject: Digest Footer<br>
<br>
______________________________<wbr>_________________<br>
ai-seminar-announce mailing list<br>
<a href="mailto:ai-seminar-announce@cs.cmu.edu">ai-seminar-announce@cs.cmu.edu</a><br>
<a href="https://mailman.srv.cs.cmu.edu/mailman/listinfo/ai-seminar-announce" rel="noreferrer" target="_blank">https://mailman.srv.cs.cmu.<wbr>edu/mailman/listinfo/ai-<wbr>seminar-announce</a><br>
<br>
------------------------------<br>
<br>
End of ai-seminar-announce Digest, Vol 78, Issue 3<br>
******************************<wbr>********************<br>
</blockquote></div><br></div>