<div dir="ltr">fyi, if you have not seen this work from Jack, you've got to catch up!<div><br></div><div>Artur<br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">---------- Forwarded message ---------<br>From: <strong class="gmail_sendername" dir="auto">Jack Good</strong> <span dir="auto"><<a href="mailto:jhgood@cs.cmu.edu">jhgood@cs.cmu.edu</a>></span><br>Date: Fri, Apr 8, 2022 at 12:46 PM<br>Subject: PhD Speaking Qualifier: Kernel Density Decision Trees<br>To:  <<a href="mailto:ri-people@lists.andrew.cmu.edu">ri-people@lists.andrew.cmu.edu</a>><br></div><br><br><div dir="ltr">Hi everyone,<div><br></div><div>I'll be presenting my speaking qualifier <b>Tuesday, April 19 at 10:00 am</b> on Zoom. Everyone is welcome.</div><div><br></div><div><b>Date: </b>Tuesday, April 19</div><div><b>Time:</b> 10:00 am EDT</div><div><b>Zoom: <a href="https://cmu.zoom.us/j/93872260456?pwd=SHVWRjZXTW9aZHB6U1lTWG9TUTcvUT09" target="_blank">https://cmu.zoom.us/j/93872260456?pwd=SHVWRjZXTW9aZHB6U1lTWG9TUTcvUT09</a></b></div><div><b>Meeting ID: </b>938 7226 0456</div><div><b>Passcode: </b>790431</div><div><br></div><div><b>Title: </b>Kernel Density Decision Trees</div><div><br></div><div><b>Abstract</b></div><div>We propose kernel density decision trees (KDDTs), a novel fuzzy decision tree (FDT) formalism based on kernel density estimation that improves the robustness of decision trees and ensembles and offers additional utility. FDTs mitigate the sensitivity of decision trees to uncertainty by representing uncertainty through fuzzy partitions. However, compared to conventional, crisp decision trees, FDTs are generally complex to apply, sensitive to design choices, slow to fit and make predictions, and difficult to interpret. Moreover, finding the optimal threshold for a given fuzzy split is challenging, resulting in methods that discretize data, settle for near-optimal thresholds, or fuzzify crisp trees. Our KDDTs address these shortcomings by representing uncertainty intuitively through kernel distributions and by using a novel, scalable generalization of the CART algorithm for finding optimal partitions for FDTs with piecewise-linear splitting functions or KDDTs with piecewise-constant fitting kernels. KDDTs can improve robustness to random or adversarial perturbation, reduce or eliminate the need for ensemble methods, enable smooth regression with trees, and give access to gradient-based feature learning methods that can improve prediction performance and reduce model complexity.<b><br></b></div><div><br></div><div><b>Committee</b></div><div>Artur Dubrawski (Chair)</div><div>Barnabas Poczos</div><div>Mario Berges</div><div>Nick Gisolfi</div></div>
_______________________________________________<br>
ri-people mailing list<br>
<a href="mailto:ri-people@lists.andrew.cmu.edu" target="_blank">ri-people@lists.andrew.cmu.edu</a><br>
<a href="https://lists.andrew.cmu.edu/mailman/listinfo/ri-people" rel="noreferrer" target="_blank">https://lists.andrew.cmu.edu/mailman/listinfo/ri-people</a><br>
</div></div></div>