<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:12.0pt;
        font-family:"Times New Roman",serif;}
span.EmailStyle19
        {mso-style-type:personal-reply;
        font-family:"Calibri",sans-serif;
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]-->
</head>
<body lang="EN-US" link="#0563C1" vlink="#954F72" style="word-wrap:break-word">
<div class="WordSection1">
<p class="MsoNormal">I must say that I’m somewhat dismayed when I read these kinds of discussions, here or elsewhere. Sure, it’s understandable that many people are fooled into thinking that LLMs are intelligent, just like many people were fooled by Eliza and
 Eugene Goostman. Humans are predisposed into ascribing intention and purpose to events in the world, which helped them construct complex societies by (often correctly) interpreting the actions of other people around them. But this same predisposition also
 led them to believe that the volcano was angry when it erupted because they did something to offend the gods. Given how susceptible humans are to this false ascription of agency, it is not surprising that they get fooled when something acts in a complex way.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">But (most of) the people on this list know what’s under the hood! We know that LLMs are very good at pattern matching and completion, we know about the universal approximation theorem, we know that there is a lot of structure in the pattern
 of human-written text, and we know that humans are predisposed to ascribe meaning and intention even where there are none. We should therefore not be surprised that LLMs can produce text patterns that generalize well within-distribution but not so well out-of-distribution,
 and that when the former happens, people may be fooled into thinking they are speaking with a thinking being. Again, they were fooled by Eliza, and Eugene Goostman, and the Heider-Simmel illusion (ascribing emotion to animated triangles and circles)… and the
 rumblings of volcanos. But we know how LLMs and volcanos do what they do, and can explain their behavior without any additional assumptions (of thinking, or sentience, or whatever). So why add them?<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">In a sense, we are like a bunch of professional magicians, who know where all of the little strings and hidden compartments are, and who know how we just redirected the audience’s attention to slip the card into our pocket… but then we
 are standing around backstage wondering: “Maybe there really is magic?”<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">I think it’s not that machines have passed the Turing Test, but rather that we failed it.<o:p></o:p></p>
<p class="MsoNormal"><o:p> </o:p></p>
<p class="MsoNormal">Paul Cisek<span style="font-size:11.0pt;font-family:"Calibri",sans-serif"><o:p></o:p></span></p>
<p class="MsoNormal"><span lang="EN-CA" style="font-size:11.0pt;font-family:"Calibri",sans-serif"><o:p> </o:p></span></p>
<p class="MsoNormal"><span lang="EN-CA" style="font-size:11.0pt;font-family:"Calibri",sans-serif"><o:p> </o:p></span></p>
<div>
<div style="border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal"><b><span style="font-size:11.0pt;font-family:"Calibri",sans-serif">From:</span></b><span style="font-size:11.0pt;font-family:"Calibri",sans-serif"> Rothganger, Fredrick <frothga@sandia.gov>
<br>
<b>Sent:</b> Thursday, March 16, 2023 11:39 AM<br>
<b>To:</b> connectionists@mailman.srv.cs.cmu.edu<br>
<b>Subject:</b> Connectionists: Can LLMs think?<o:p></o:p></span></p>
</div>
</div>
<p class="MsoNormal"><o:p> </o:p></p>
<div>
<p class="MsoNormal" style="background:white"><span style="font-family:"Calibri",sans-serif;color:black">Noting the examples that have come up on this list over the last week, it's interesting that it takes some of the most brilliant AI researchers in the world
 to devise questions that break LLMs. Chatbots have always been able to fool some people some of the time, ever since ELIZA. But we now have systems that can fool a lot of people a lot of the time, and even the occasional expert who loses their perspective
 and comes to believe the system is sentient. LLMs have either already passed the classic Turning test, or are about to in the next generation.<o:p></o:p></span></p>
</div>
<div>
<p class="MsoNormal" style="background:white"><span style="font-family:"Calibri",sans-serif;color:black"><o:p> </o:p></span></p>
</div>
<div>
<p class="MsoNormal" style="background:white"><span style="font-family:"Calibri",sans-serif;color:black">What does that mean exactly? Turing's expectation was that "the use of words and general educated opinion will have altered so much that one will be able
 to speak of machines thinking without expecting to be contradicted". The ongoing discussion here is an indication that we are approaching that threshold. For the average person, we've probably already passed it.<o:p></o:p></span></p>
</div>
<p class="MsoNormal"><o:p> </o:p></p>
</div>
</body>
</html>