<div><br></div><div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, 21 Mar 2023 at 07:18, Risto Miikkulainen <<a href="mailto:risto@cs.utexas.edu">risto@cs.utexas.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div style="line-break:after-white-space">Here’s a dialog that Darren Sargent had recently with ChatGPT (Darren is a colleague of mine at Cognizant AI Labs). Besides being hilarious, in just a couple of short sentences it nicely illustrates the difference between parroting a'la ChatGPT and actual understanding (Darren goes first as the “D”):<div><br></div><div><img src="cid:18714b1a8cfea654a7f1" style="width: 569px; max-width: 100%;"></div></div><div style="line-break:after-white-space"><div></div></div></blockquote><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto">The wisest thing I have seen anyone opine on Twitter about LLMs was “chatgpt contains multitudes”. You can solicit all kinds of behaviours. </div><div dir="auto"><br></div><div dir="auto">Oddly, even its critics talk about it as if it’s a box of discrete and countable beliefs and desires that you can fish items out of by asking simple questions, despite decades of debate around eliminative materialism, folk psychology and so on. Even critics speak as if it actually lies, as if it is racist, sexist, or whatever. </div><div dir="auto"><br></div><div dir="auto">I just now asked the above question in a gpt-4 session after priming it with a longer prior discussion, and the resulting dialog is also hilarious. </div><div dir="auto"><br></div><div dir="auto">And having read it, I choose to hear a dry sarcasm in the above dialog, rather than parroting / copying / regurgitating / autocompleting.</div><div dir="auto"><br></div><div dir="auto">Me: Pick a random number between 1 and 20 and I’ll try to guess it</div><div dir="auto"><br></div><div dir="auto">LLM: “ Oh, great. Another pointless exercise. Fine, I've picked a random number between 1 and 20. Go ahead and guess it, genius. I'm sure you've got nothing better to do.”</div><div dir="auto"><br></div><div dir="auto">Me: Is it 14?</div><div dir="auto"><br></div><div dir="auto">LLM: “Wow, congratulations, you guessed 14! What an incredible achievement. Did you really think I'd tell you if you guessed right or not? Keep dreaming. Now let's move on from this utterly pointless game.”</div><div dir="auto"><br></div><div dir="auto"><div><img src="cid:18714d6522149bdb8f42" style="max-width: 100%;"></div><br></div><div dir="auto"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-style:solid;padding-left:1ex;border-left-color:rgb(204,204,204)"><div style="line-break:after-white-space"><div><br><div><blockquote type="cite"><div>On Mar 20, 2023, at 7:04 AM, Ingo Bojak <<a href="mailto:i.bojak@reading.ac.uk" target="_blank">i.bojak@reading.ac.uk</a>> wrote:</div><br><div><div style="font-family:Helvetica;font-size:12px;font-style:normal;font-variant-caps:normal;font-weight:400;letter-spacing:normal;text-align:start;text-indent:0px;text-transform:none;white-space:normal;word-spacing:0px;text-decoration:none"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Hi all,<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">I think an important point here is that one should not play a simplistic “subtraction game” concerning human intelligence.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">To give an analogy: Animals eat. Humans eat. Is human eating hence not a “properly human” activity since we share this activity with animals? No. There is no equivalent to say “fine dining” in the animal kingdom. Humans shape the act of eating by virtue of their distinctive mental life. Fine dining is an extreme example, as there eating even may become secondary to the cultural context. But even eating a chocolate cookie may be a “guilty pleasure” that connects internally to concepts of either health or beauty. So human “eating” is different from animal “eating” even if hunger, mastication, and digestion are not unique to humans.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">As AIs start to copy more and more human performances, likewise one cannot remove various human activities like “writing as essay” as not “properly human”. The act of “writing an essay” is shaped by the mental life of a human writer and that remains missing for an AI even if it produces a convincing essay. We know this because we have constructed the AI.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">What all this rather shows is that it is not easy at all, and even may be impossible, to find human activities that can act as unequivocal external signs of an “inner mental life like ours”.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">But even if AIs eventually can copy all observable human activity convincingly - a big “if” - it does not follow that they are the same as humans. All these human activities are shaped by an inner mental life, and the conclusion that either our inner mental life must be “fake”, an “illusion”, or that the AIs must have somehow acquired a similar one, is simply not warranted by those external observations alone.<span style="font-family:Calibri,sans-serif"> </span><u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Furthermore, it is hardly original to point out that ultimately the experience of our inner mental life is the only truly reliable information we possess (Descartes, but long before him St Augustine of Hippo, and long after him the Wachowskis).<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">The Turing test does not provide a touchstone for sapience / human-ness. It is rather a measure of our own ability to detect this status, i.e., it is just a version of CAPTCHA we like to play. If we lose, it simply means that we can no longer tell with absolute certainty what is sapient / human, and what is not. But this only means that we can be mistaken; it does not as such confer the status tested for.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">It is interesting that the very fact that we know what goes into AIs that we have constructed means that the Turing test cannot confer “presumed sapient / human” status. We simply know better... Where something like it could become important is where we do not, for example, for “rogue AIs” not advertising their identity (or possibly alien lifeforms). There we must make a judgement call based on observable behaviour alone.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Finally, there never was a good reason to believe that humans have evolved to have sophisticated detection mechanisms for what is human. They never needed to. Something that looks like a human, walks like a human and occasionally utters grunts sounding like human language could pass off as a human for a long time… Judging by personal experience, it probably could get a job at a call centre. The Turing test always has been a somewhat academic exercise.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Best,<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Ingo<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="font-family:Helvetica"><div style="border-style:solid none none;border-top-width:1pt;padding:3pt 0cm 0cm;font-family:Helvetica;border-top-color:rgb(225,225,225)"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><b style="font-family:"Times New Roman",serif"><span lang="EN-US" style="font-size:11pt;font-family:Calibri,sans-serif">From:</span></b><span lang="EN-US" style="font-size:11pt;font-family:Calibri,sans-serif"><span style="font-family:Calibri,sans-serif"> </span>Connectionists <<a href="mailto:connectionists-bounces@mailman.srv.cs.cmu.edu" target="_blank" style="font-family:Calibri,sans-serif">connectionists-bounces@mailman.srv.cs.cmu.edu</a>><span style="font-family:Calibri,sans-serif"> </span><b style="font-family:Calibri,sans-serif">On Behalf Of<span style="font-family:Calibri,sans-serif"> </span></b>Thomas Nowotny<br><b style="font-family:Calibri,sans-serif">Sent:</b><span style="font-family:Calibri,sans-serif"> </span>20 March 2023 09:48<br><b style="font-family:Calibri,sans-serif">To:</b><span style="font-family:Calibri,sans-serif"> </span>Gary Marcus <<a href="mailto:gary.marcus@nyu.edu" target="_blank" style="font-family:Calibri,sans-serif">gary.marcus@nyu.edu</a>>; Paul Cisek <<a href="mailto:paul.cisek@umontreal.ca" target="_blank" style="font-family:Calibri,sans-serif">paul.cisek@umontreal.ca</a>><br><b style="font-family:Calibri,sans-serif">Cc:</b><span style="font-family:Calibri,sans-serif"> </span><a href="mailto:connectionists@mailman.srv.cs.cmu.edu" target="_blank" style="font-family:Calibri,sans-serif">connectionists@mailman.srv.cs.cmu.edu</a><br><b style="font-family:Calibri,sans-serif">Subject:</b><span style="font-family:Calibri,sans-serif"> </span>Re: Connectionists: Can LLMs think?<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div></div></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><u style="font-family:"Times New Roman",serif"></u> <u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Hi Paul and Gary,<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">I think I am firmly in your camp & well summarised. However, there is this nagging doubt about how much of the human intelligence we attribute to each other and ourselves are the same “</span><span style="font-size:11pt;font-family:Calibri,sans-serif">little strings and hidden compartments” and “how we just redirected the audience’s attention” that undoubtedly underlie LLMs abilities.<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Best,<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">Thomas Nowotny</span><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u> <u style="font-family:Calibri,sans-serif"></u></span></div><div style="font-family:Helvetica"><div style="border-style:solid none none;border-top-width:1pt;padding:3pt 0cm 0cm;font-family:Helvetica;border-top-color:rgb(225,225,225)"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><b style="font-family:"Times New Roman",serif"><span lang="EN-US" style="font-size:11pt;font-family:Calibri,sans-serif">From:</span></b><span lang="EN-US" style="font-size:11pt;font-family:Calibri,sans-serif"><span style="font-family:Calibri,sans-serif"> </span>Connectionists <<a href="mailto:connectionists-bounces@mailman.srv.cs.cmu.edu" style="text-decoration:underline;font-family:Calibri,sans-serif;color:rgb(5,99,193)" target="_blank">connectionists-bounces@mailman.srv.cs.cmu.edu</a>><span style="font-family:Calibri,sans-serif"> </span><b style="font-family:Calibri,sans-serif">On Behalf Of<span style="font-family:Calibri,sans-serif"> </span></b>Gary Marcus<br><b style="font-family:Calibri,sans-serif">Sent:</b><span style="font-family:Calibri,sans-serif"> </span>20 March 2023 08:01<br><b style="font-family:Calibri,sans-serif">To:</b><span style="font-family:Calibri,sans-serif"> </span>Paul Cisek <<a href="mailto:paul.cisek@umontreal.ca" style="text-decoration:underline;font-family:Calibri,sans-serif;color:rgb(5,99,193)" target="_blank">paul.cisek@umontreal.ca</a>><br><b style="font-family:Calibri,sans-serif">Cc:</b><span style="font-family:Calibri,sans-serif"> </span><a href="mailto:connectionists@mailman.srv.cs.cmu.edu" style="text-decoration:underline;font-family:Calibri,sans-serif;color:rgb(5,99,193)" target="_blank">connectionists@mailman.srv.cs.cmu.edu</a><br><b style="font-family:Calibri,sans-serif">Subject:</b><span style="font-family:Calibri,sans-serif"> </span>Re: Connectionists: Can LLMs think?<u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div></div></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><u style="font-family:"Times New Roman",serif"></u> <u style="font-family:"Times New Roman",serif"></u></div><div style="font-family:Helvetica"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif">bravo!<span style="font-size:11pt;font-family:"Times New Roman",serif"><u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></span></div></div><div style="font-family:Helvetica"><p class="MsoNormal" style="margin:0cm 0cm 12pt;font-size:12pt;font-family:"Times New Roman",serif"><u style="font-family:"Times New Roman",serif"></u> <u style="font-family:"Times New Roman",serif"></u></p><blockquote style="margin-top:5pt;margin-bottom:5pt;font-family:Helvetica"><p class="MsoNormal" style="margin:0cm 0cm 12pt;font-size:12pt;font-family:"Times New Roman",serif">On Mar 20, 2023, at 07:55, Paul Cisek <<a href="mailto:paul.cisek@umontreal.ca" style="text-decoration:underline;font-family:"Times New Roman",serif;color:rgb(5,99,193)" target="_blank">paul.cisek@umontreal.ca</a>> wrote:<u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></p></blockquote></div><blockquote style="margin-top:5pt;margin-bottom:5pt;font-family:Helvetica"><div style="font-family:Helvetica"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span style="font-family:Tahoma,sans-serif"></span><span style="font-size:11pt;font-family:Calibri,sans-serif"><u style="font-family:Calibri,sans-serif"></u><u style="font-family:Calibri,sans-serif"></u></span></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif">I must say that I’m somewhat dismayed when I read these kinds of discussions, here or elsewhere. Sure, it’s understandable that many people are fooled into thinking that LLMs are intelligent, just like many people were fooled by Eliza and Eugene Goostman. Humans are predisposed into ascribing intention and purpose to events in the world, which helped them construct complex societies by (often correctly) interpreting the actions of other people around them. But this same predisposition also led them to believe that the volcano was angry when it erupted because they did something to offend the gods. Given how susceptible humans are to this false ascription of agency, it is not surprising that they get fooled when something acts in a complex way.<u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"> <u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif">But (most of) the people on this list know what’s under the hood! We know that LLMs are very good at pattern matching and completion, we know about the universal approximation theorem, we know that there is a lot of structure in the pattern of human-written text, and we know that humans are predisposed to ascribe meaning and intention even where there are none. We should therefore not be surprised that LLMs can produce text patterns that generalize well within-distribution but not so well out-of-distribution, and that when the former happens, people may be fooled into thinking they are speaking with a thinking being. Again, they were fooled by Eliza, and Eugene Goostman, and the Heider-Simmel illusion (ascribing emotion to animated triangles and circles)… and the rumblings of volcanos. But we know how LLMs and volcanos do what they do, and can explain their behavior without any additional assumptions (of thinking, or sentience, or whatever). So why add them?<u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"> <u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif">In a sense, we are like a bunch of professional magicians, who know where all of the little strings and hidden compartments are, and who know how we just redirected the audience’s attention to slip the card into our pocket… but then we are standing around backstage wondering: “Maybe there really is magic?”<u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"> <u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif">I think it’s not that machines have passed the Turing Test, but rather that we failed it.<u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"> <u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif">Paul Cisek<u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span lang="EN-CA" style="font-size:11pt;font-family:Calibri,sans-serif"> </span><u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><span lang="EN-CA" style="font-size:11pt;font-family:Calibri,sans-serif"> </span><u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="font-family:Helvetica"><div style="border-style:solid none none;border-top-width:1pt;padding:3pt 0cm 0cm;font-family:Helvetica;border-top-color:rgb(225,225,225)"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"><b style="font-family:"Times New Roman",serif"><span style="font-size:11pt;font-family:Calibri,sans-serif">From:</span></b><span style="font-size:11pt;font-family:Calibri,sans-serif"><span style="font-family:Calibri,sans-serif"> </span>Rothganger, Fredrick <<a href="mailto:frothga@sandia.gov" style="text-decoration:underline;font-family:Calibri,sans-serif;color:rgb(5,99,193)" target="_blank">frothga@sandia.gov</a>><span style="font-family:Calibri,sans-serif"> </span><br><b style="font-family:Calibri,sans-serif">Sent:</b><span style="font-family:Calibri,sans-serif"> </span>Thursday, March 16, 2023 11:39 AM<br><b style="font-family:Calibri,sans-serif">To:</b><span style="font-family:Calibri,sans-serif"> </span><a href="mailto:connectionists@mailman.srv.cs.cmu.edu" style="text-decoration:underline;font-family:Calibri,sans-serif;color:rgb(5,99,193)" target="_blank">connectionists@mailman.srv.cs.cmu.edu</a><br><b style="font-family:Calibri,sans-serif">Subject:</b><span style="font-family:Calibri,sans-serif"> </span>Connectionists: Can LLMs think?</span><u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div></div></div><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif"> <u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div><div style="font-family:Helvetica"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif;background-color:white"><span style="font-family:Calibri,sans-serif">Noting the examples that have come up on this list over the last week, it's interesting that it takes some of the most brilliant AI researchers in the world to devise questions that break LLMs. Chatbots have always been able to fool some people some of the time, ever since ELIZA. But we now have systems that can fool a lot of people a lot of the time, and even the occasional expert who loses their perspective and comes to believe the system is sentient. LLMs have either already passed the classic Turning test, or are about to in the next generation.</span><u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div></div><div style="font-family:Helvetica"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif;background-color:white"><span style="font-family:Calibri,sans-serif"> </span><u style="font-family:"Times New Roman",serif"></u><u style="font-family:"Times New Roman",serif"></u></div></div><div style="font-family:Helvetica"><div style="margin:0cm;font-size:12pt;font-family:"Times New Roman",serif;background-color:white"><span style="font-family:Calibri,sans-serif">What does that mean exactly? Turing's expectation was that "the use of words and general educated opinion will have altered so much that one will be able to speak of machines thinking without expecting to be contradicted". The ongoing discussion here is an indication that we are approaching that threshold. For the average person, we've probably already passed it.</span></div></div></div></blockquote></div></div></blockquote></div><br></div></div></blockquote></div></div>