<div dir="ltr">Hi everyone,<div>I have some interesting recent work to present for my PhD speaking qualifier on Monday at 8am in GHC 7101 (it's the only time that worked for everyone. Seriously). So wake up bright and early and let's talk about some cool math.</div><div><br></div><div><div class="uyb8Gf" style="font-size:13px;line-height:19.5px"><div class="F3hlO"><div dir="ltr"><h4 style="font-weight:500;margin-top:10px;margin-bottom:10px"><span style="color:rgb(51,51,51);font-size:18px;line-height:1.1">Non-parametric maximum likelihood clustering with Dark Cuts</span><br></h4><p style="margin:0px 0px 10px;color:rgb(51,51,51);font-size:14px"><font color="red"><b>Dec 7 (Monday) at 8:00 am GHC-7101 </b></font><br>Speaker: Matt Barnes</p><p style="margin:0px 0px 10px;color:rgb(51,51,51);font-size:14px"><b>Abstract:</b> Clustering algorithms traditionally rely on assumptions about the data distribution or use a heuristic for the objective function. I propose a non-parametric clustering model and show that the maximum likelihood estimator is equivalent to MinCut, plus an extra meaningful term defined as the Dark Cut. The maximum likelihood estimator can be solved for in polynomial time with strong guarantees using a randomized algorithm. Preliminary experimental results show Dark Cuts performs comparably to the best spectral clustering methods.</p></div></div></div><div class="uyb8Gf" style="font-size:13px;line-height:19.5px"><div title="Show quoted text" tabindex="0" class="mg">…</div></div></div></div>