<div dir="ltr">Dear faculty and students,<br><br>We look forward to seeing you this Tuesday, February 23rd, at noon in NSH 3305 for AI lunch. To learn more about the seminar and lunch, or to volunteer to give a talk, please visit the <a href="http://www.cs.cmu.edu/~aiseminar/" target="_blank">AI Lunch webpage</a>.<br><br>On Tuesday, <a href="http://www.cs.cmu.edu/~sef/" target="_blank">Professor Scott Fahlman</a> will give a talk titled "Knowledge-Based AI Using Scone."<br><br><b>Abstract</b>: In the early days of the AI field, the focus was mostly on symbolic knowledge, reasoning, and search, plus a little bit of machine learning to gather the necessary knowledge. More recently, the focus has shifted almost completely to ML, Big Data, and Deep Learning, and there has been some exciting progress in these areas. I will argue that for human-like, human-level AI, we are going to need both approaches: the ML stuff to handle the sensory-motor tasks, and the symbolic stuff for semantics, complex reasoning, and "conscious" thought.<br><br>In the remainder of the talk, I will give a high-level overview of the open-source Scone knowledge-base system, which my research group has been working on for most of the last decade. I will describe how Scone handles inheritance of information through the "is a" hierarchy, default reasoning with exceptions, and statements about statements, and how we scale the system up to millions of entities and statements -- on a laptop.<br><br>Perhaps the most unusual feature of Scone is its multiple-context mechanism, which allows us to represent many slightly different world-models within the same knowledge base. Scone's contexts are used for modeling and reasoning about information that changes from one time-point to another; hypotheses and counter-factuals; the different knowledge-states and belief-states of various characters; lies and deception; and in many other ways. Contexts are our secret weapon and our Swiss Army Knife.<br><br>Finally, I will give a quick overview of the Scone project's current status and what we are working on, now and in the future.<br><br><div>Best,<br><br>Ellen and Ariel<br></div></div>