<div dir="ltr"><div><div style="font-size:12.8px">This is a reminder that this talk is tomorrow, Tuesday, April 5th.</div><div style="font-size:12.8px"><br></div><div style="font-size:12.8px">Best,</div><div style="font-size:12.8px">Ellen</div></div><br><div class="gmail_quote">---------- Forwarded message ----------<br>From: <b class="gmail_sendername">Ellen Vitercik</b> <span dir="ltr"><<a href="mailto:vitercik@cs.cmu.edu">vitercik@cs.cmu.edu</a>></span><br>Date: Wed, Mar 30, 2016 at 10:10 PM<br>Subject: AI Lunch -- Yair Zick -- April 5th, 2016<br>To: <a href="mailto:ai-seminar-announce@cs.cmu.edu">ai-seminar-announce@cs.cmu.edu</a><br><br><br><div dir="ltr"><span style="font-size:12.8px">Dear faculty and students,</span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">We look forward to seeing you this Tuesday, April 5th, at noon in NSH 3305 for AI lunch. To learn more about the seminar and lunch, or to volunteer to give a talk, please visit the </span><a href="http://www.cs.cmu.edu/~aiseminar/" style="font-size:12.8px" target="_blank">AI Lunch webpage</a><span style="font-size:12.8px">. <b>We are looking for someone to give a talk on May 10th.</b></span><br style="font-size:12.8px"><br style="font-size:12.8px"><span style="font-size:12.8px">On Tu</span><span style="font-size:12.8px">esday, <a href="http://www.cs.cmu.edu/~yairzick/" target="_blank">Yair Zick</a> will give</span><span style="font-size:12.8px"> a t</span><span style="font-size:12.8px">alk titled "</span><span style="font-size:12.8px">Towards a Value Theory for Algorithmic Transparency</span><span style="font-size:12.8px">."</span><br style="font-size:12.8px"><br style="font-size:12.8px"><b style="font-size:12.8px">Abstract</b>: Algorithmic systems that employ machine learning play an ever-increasing role in making substantive decisions in modern society, ranging from online personalization to insurance and credit decisions to predictive policing. But their decision making processes are often opaque -- it is difficult to explain why a certain decision was made -- thus raising concerns about inadvertent introduction of harms.<br><br>We describe a new research agenda, applying game-theoretic centrality to the algorithmic transparency problem. We develop a formal foundation to improve the transparency of such decision-making systems that operate over large volumes of personal information about individuals.<br><br>First, we describe an axiomatic approach to measuring feature importance in datasets; that is, we derive a function that uniquely satisfies a set of reasonable properties for the measurement of feature influence.<br><br>Next, we introduce a family of Quantitative Input Influence (QII) measures that capture the degree of influence of inputs on outputs of machine learning algorithms. Our causal QII measures carefully account for correlations among inputs and capture input influence on aggregate effects on groups of individuals (e.g., disparate impact based on race). The QII measures also capture the joint and marginal influence of a set of inputs on outputs using an aggregation method with a strong theoretical justification. Apart from demonstrating general trends in a system, QII guides the construction of personalized transparency reports that provide insights into an individual's classification outcomes. Our empirical validation demonstrates that our QII measures are a useful transparency mechanism when black box access to the learning system is available; in particular, they provide better explanations than standard associative measures for a host of scenarios that we consider.<br><br>This work is based on two papers Amit Datta, Anupam Datta, Ariel D. Procaccia and Yair Zick "Influence in Classification via Cooperative Game Theory", appeared in the 24th International Joint Conference on Artificial Intelligence (IJCAI 2015).<br><br>Anupam Datta, Shayak Sen and Yair Zick "Algorithmic Transparency via Quantitative Input Influence: Theory and Experiments with Learning Systems", to appear in the 37th IEEE Symposium on Security and Privacy (Oakland 2016).<div style="font-size:12.8px"><div><br></div></div><div style="font-size:12.8px"><span style="font-size:12.8px">Best,</span></div><div style="font-size:12.8px">Ellen and Ariel</div></div>
</div><br></div>