<div dir="ltr">Dear all,<br><br>We look forward to seeing you next <b>Tuesday (11/05) from 12:00-1:00 PM (ET)</b> for the next talk of this semester's CMU AI Seminar, sponsored by <a href="https://sambanova.ai">SambaNova Systems</a>. The seminar will be held in <b>GHC 6115 </b>with pizza provided and will be streamed on Zoom.<br><div><br></div><div>To learn more about the seminar series or to see the future schedule, please visit the seminar website: <a href="http://www.cs.cmu.edu/~aiseminar/">http://www.cs.cmu.edu/~aiseminar/</a>.<br><span style="background-color:rgb(255,255,0)"><br>Next Tuesday (11/05), Dravy Sharma (TTIC) will be giving a talk titled "Learning accurate and interpretable decision trees".<br></span></div><div><br></div><div><b>Abstract</b>: Decision trees have remained popular in machine learning and data science over the past several decades for being effective, "white-box" models, and have often been treated as a gold standard for interpretability. While learning even approximately optimal decision trees is known to be computationally hard in the worst case, we present a positive perspective for selecting the learning algorithms that yield the most accurate and interpretable decision trees for repeated data instances coming from the same domain. <br><br>We propose a novel family of splitting criteria used in top-down decision tree learning, which unifies entropy, Gini impurity and the theoretically motivated Kearns-Mansour criterion, and show how to learn the best best splitting function for the data at hand. We also study the sample complexity of tuning prior parameters in Bayesian decision tree learning, and extend our results to decision tree regression as well as classical pruning algorithms including min-cost complexity pruning. We introduce a data-driven approach for optimizing the explainability versus accuracy trade-off using decision trees, and demonstrate the empirical significance of our approach.<br><br>Based on joint work with Nina Balcan, recognized with an Outstanding student paper award to UAI 2024.<br><br><b>Bio</b>: Dravyansh (Dravy) Sharma is a postdoctoral scholar supported by the IDEAL fellowship under the mentorship of Avrim Blum and Aravindan Srinivasan. He completed his PhD in the Computer Science Department at CMU, advised by Nina Balcan. His research interests include machine learning theory and algorithms, focusing on provable hyperparameter tuning, adversarial robustness, and beyond worst-case analysis of algorithms. His recent work develops techniques for tuning fundamental machine learning algorithms to domain-specific data and introduces new, powerful robust learning guarantees. His work has been published at top ML venues, including NeurIPS, ICML, COLT, JMLR, AISTATS, UAI and AAAI. He has multiple papers awarded with Oral presentations, has received the UAI 2024 Outstanding Student Paper Award, and has interned with Google Research and Microsoft Research.<br><br><br><b><font color="#3d85c6">In person: GHC 6115<br>Zoom Link:  <a href="https://cmu.zoom.us/j/99510233317?pwd=ZGx4aExNZ1FNaGY4SHI3Qlh0YjNWUT09">https://cmu.zoom.us/j/99510233317?pwd=ZGx4aExNZ1FNaGY4SHI3Qlh0YjNWUT09</a></font></b><br></div><div><b><font color="#3d85c6"><br></font></b></div><div><b><font color="#3d85c6"><br></font></b></div>-Victor</div>