<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=Windows-1252">
<style type="text/css" style="display:none;"> P {margin-top:0;margin-bottom:0;} </style>
</head>
<body dir="ltr">
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
The problem with thought experiments, and particularly the famous ones in theory of mind (Searle's Chinese Room, Mary's Room, etc.) is that they contain a subtle appeal to intuition. You get out what you bring to it. Put another way, they help expose and clarify
 your own intuitions, but they don't actually prove anything.</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
Stefan asked the right question: Is there a difference between simulating something and actually doing it?</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
My answer: If your simulation gets real work done, then no. Is there a difference between simulating the addition of 2+2 and actually adding 2+2? As long as you get the answer 4, then no. Is there a difference between co-writing a science-fiction story about
 a user interacting with a sentient AI and actually being a sentient AI? Probably yes.</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof ContentPasted0">
This goes back to the classic question that Turing raised. If the machine's behavior is indistinguishable from a human thinking, maybe we should grant that it actually thinks. Things we used to imagine were solely in the human domain, which required some special
 sauce that machines lack, have successively fallen to the onslaught of the AI project. Chess, fine art, Python code ...<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
<br>
</div>
<div style="font-family: Calibri, Arial, Helvetica, sans-serif; font-size: 12pt; color: rgb(0, 0, 0); background-color: rgb(255, 255, 255);" class="elementToProof">
Perhaps the real problem is our intuition that humans are somehow special, rather than just machines ourselves. We have this "yeah, but..." response each time one of these capabilities gets overtaken. That's an existential question, and we need some time to
 mourn.<br>
</div>
<div id="appendonsend"></div>
<div style="font-family:Calibri,Arial,Helvetica,sans-serif; font-size:12pt; color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:Calibri,Arial,Helvetica,sans-serif; font-size:12pt; color:rgb(0,0,0)">
Then we should utterly ignore our feelings of Human Exceptionalism and focus on how stuff works. How does the brain actually get thinking done? A proper theory should address the full breadth of evidence from neuroscience (not just a few cherry-picked general
 features) and all the results of ANN work.<br>
</div>
<div style="font-family:Calibri,Arial,Helvetica,sans-serif; font-size:12pt; color:rgb(0,0,0)">
<br>
</div>
<div style="font-family:Calibri,Arial,Helvetica,sans-serif; font-size:12pt; color:rgb(0,0,0)">
<br>
</div>
<hr tabindex="-1" style="display:inline-block; width:98%">
<div id="divRplyFwdMsg" dir="ltr"><font style="font-size:11pt" face="Calibri, sans-serif" color="#000000"><b>From:</b> Connectionists <connectionists-bounces@mailman.srv.cs.cmu.edu> on behalf of Stefan C Kremer <skremer@uoguelph.ca><br>
<b>Sent:</b> Wednesday, March 8, 2023 6:43 PM<br>
<b>To:</b> Terry Sejnowski <terry@salk.edu><br>
<b>Cc:</b> Connectionists List <connectionists@cs.cmu.edu><br>
<b>Subject:</b> [EXTERNAL] Re: Connectionists: Chomsky's apple</font>
<div> </div>
</div>
<div style="line-break:after-white-space">
<table style="border:0; display:table; width:100%; table-layout:fixed; border-collapse:seperate; float:none" width="100%" cellspacing="0" cellpadding="0" border="0" align="left">
<tbody style="display:block">
<tr>
<td cellpadding="7px 2px 7px 2px" style="padding:7px 2px 7px 2px; background-color:#A6A6A6" width="1px" valign="middle" bgcolor="#A6A6A6">
</td>
<td cellpadding="7px 5px 7px 15px" color="#212121" style="width:100%; background-color:#EAEAEA; padding:7px 5px 7px 15px; font-family:wf_segoe-ui_normal,Segoe UI,Segoe WP,Tahoma,Arial,sans-serif; font-size:12px; font-weight:normal; color:#212121; text-align:left; word-wrap:break-word" width="100%" valign="middle" bgcolor="#EAEAEA">
<div>You don't often get email from skremer@uoguelph.ca. <a href="https://aka.ms/LearnAboutSenderIdentification" data-auth="NotApplicable">
Learn why this is important</a></div>
</td>
<td cellpadding="7px 5px 7px 5px" color="#212121" style="width:75px; background-color:#EAEAEA; padding:7px 5px 7px 5px; font-family:wf_segoe-ui_normal,Segoe UI,Segoe WP,Tahoma,Arial,sans-serif; font-size:12px; font-weight:normal; color:#212121; text-align:left; word-wrap:break-word" width="75px" valign="middle" bgcolor="#EAEAEA" align="left">
</td>
</tr>
</tbody>
</table>
<div>One of the criticisms against John Searle’s argument (<a href="https://gcc02.safelinks.protection.outlook.com/?url=https%3A%2F%2Fen.wikipedia.org%2Fwiki%2FChinese_room&data=05%7C01%7Cfrothga%40sandia.gov%7C094d520e8de347cc173408db2075be4d%7C7ccb5a20a303498cb0c129007381b574%7C1%7C0%7C638139462313512288%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000%7C%7C%7C&sdata=3TKOH61khVrsTyuFHJvjeMHNfkEyA4PrpZea3StuePw%3D&reserved=0" data-auth="Verified" originalsrc="https://en.wikipedia.org/wiki/Chinese_room" shash="p7ZOpZWDTXPKCcl+KbYb1/QVI8iWZnXnnMRcUCQARsf7YtvKrOAAbLkKQpG/Z91B3hXOnDKHgpzvHtX0mvgzhWcRFifRq5GOC/FBtYOeAAANDYnu8jugVQKHQZcHAVRBqAi4TfQ0o7wc7cjF5MbOoJwLtx4NYefJr7hPpbyjiCY=">https://en.wikipedia.org/wiki/Chinese_room</a>)
 has always been that it wouldn’t be possible to construct a book comprehensive enough to answer all the queries, or that it would take too long to produce an output.  Chat GPT shows that we have at least approached that limitation (perhaps not truly overcome
 it…yet).
<div><br>
</div>
<div>The question posed by Searle (and answered with a “yes” by Chomsky in his thinking about counterfactuals, causal explanation, and thinking) is: is there a difference between understanding and simulated understanding?</div>
<div><br>
</div>
<div>I don’t know how we could ever answer this question (an to me that’s the important point), but it seems that Searle’s thought experiment becomes more relevant, now that a feasible implementation can be constructed, than when it was originally proposed.</div>
<div><br>
</div>
<div>Stefan</div>
<div><br>
<div><br>
<blockquote type="cite">
<div>On Mar 8, 2023, at 12:25 PM, Terry Sejnowski <terry@salk.edu> wrote:</div>
<br class="x_Apple-interchange-newline">
<div>
<div>CAUTION: This email originated from outside of the University of Guelph. Do not click links or open attachments unless you recognize the sender and know the content is safe. If in doubt, forward suspicious emails to IThelp@uoguelph.ca<br>
<br>
<br>
I have always been impressed with Chomsky's ability to use plausible<br>
arguments to make his case even when they were fallacious.<br>
<br>
https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html#commentsContainer<br>
<br>
"Here’s an example. Suppose you are holding an apple in your hand. Now you let the apple go. You observe the result and say, “The apple falls.” That is a description. A prediction might have been the statement “The apple will fall if I open my hand.” Both are
 valuable, and both can be correct. But an explanation is something more: It includes not only descriptions and predictions but also counterfactual conjectures like “Any such object would fall,” plus the additional clause “because of the force of gravity” or
 “because of the curvature of space-time” or whatever. That is a causal explanation: “The apple would not have fallen but for the force of gravity.” That is thinking."<br>
<br>
His apple example sounded convincing, so I tested GPT on it:<br>
<br>
Me:  If I hold an apple in my hand and let it go what will happen?<br>
<br>
GPT:  The apple will fall to the ground due to the force of gravity.<br>
<br>
Me: What about any such object?<br>
<br>
GPT: Any object released from a person's hand will fall to the ground due to the force of gravity.<br>
<br>
Me:  What would happen if there wasn't a force of gravity?<br>
<br>
GPT:  If there were no force of gravity, objects would not be able to stay on the ground and would float away in all directions<br>
<br>
Chomsky defined thinking by the correct answers to these questions. <br>
<br>
Alas, the tide has turned.<br>
<br>
Terry<br>
<br>
-----<br>
</div>
</div>
</blockquote>
</div>
<br>
</div>
</div>
</div>
</body>
</html>