<html><head><meta http-equiv="Content-Type" content="text/html; charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">Gary Cottrell asked me to forward this response to my email, because of difficulties posting from a new address . . . . <br class=""><div><br class=""><blockquote type="cite" class=""><div class="">Begin forwarded message:</div><br class="Apple-interchange-newline"><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;" class=""><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif; color:rgba(0, 0, 0, 1.0);" class=""><b class="">From: </b></span><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif;" class="">Garrison Cottrell <<a href="mailto:gcottrell@ucsd.edu" class="">gcottrell@ucsd.edu</a>><br class=""></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;" class=""><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif; color:rgba(0, 0, 0, 1.0);" class=""><b class="">Subject: </b></span><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif;" class=""><b class="">Re: Connectionists: Chomsky's apple</b><br class=""></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;" class=""><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif; color:rgba(0, 0, 0, 1.0);" class=""><b class="">Date: </b></span><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif;" class="">March 15, 2023 at 10:52:44 AM EDT<br class=""></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;" class=""><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif; color:rgba(0, 0, 0, 1.0);" class=""><b class="">To: </b></span><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif;" class="">Patrick Simen <<a href="mailto:psimen@oberlin.edu" class="">psimen@oberlin.edu</a>><br class=""></span></div><div style="margin-top: 0px; margin-right: 0px; margin-bottom: 0px; margin-left: 0px;" class=""><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif; color:rgba(0, 0, 0, 1.0);" class=""><b class="">Cc: </b></span><span style="font-family: -webkit-system-font, Helvetica Neue, Helvetica, sans-serif;" class="">Kevin McKee <<a href="mailto:kmckee90@gmail.com" class="">kmckee90@gmail.com</a>>, Connectionists List <<a href="mailto:connectionists@cs.cmu.edu" class="">connectionists@cs.cmu.edu</a>>, "Barak A. Pearlmutter" <<a href="mailto:barak@pearlmutter.net" class="">barak@pearlmutter.net</a>><br class=""></span></div><br class=""><div class=""><div dir="ltr" class=""><div class="gmail_quote">Believe it or not, I enjoyed your stream of consciousness post, Pat! I have to admit, however, that my t-shirt was based on a picture of Yann LeCun and Vladmir Vapnik (?) in front of a whiteboard with "All your Bayes are belong to Us" scrawled on it. Meanwhile, in order for any of this to happen, GPT and friends will need to be able to store new memories. This is completely obvious to this group, but I'm not sure it's clear to the general public. Once it has memory, then it can begin to develop a model of itself and others (real theory of mind). <br class="">It seems to me this is Not That Far Off (timewise). And then - give it a reward for novelty-seeking (artificial curiosity, as Juergen would put it)...<br class=""><br class="">-gary<br class=""><br class="">PS I know this is obvious, I created it for a more public talk:<br class=""><font color="#272832" face="Helvetica Neue" class=""><span style="font-size:12px" class=""><br class=""></span></font><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class=""><div class=""><div class=""><p style="margin:0px;font-variant-numeric:normal;font-variant-east-asian:normal;font-variant-alternates:normal;font-kerning:auto;font-feature-settings:normal;font-stretch:normal;font-size:12px;line-height:normal;font-family:"Helvetica Neue";color:rgb(39,40,50);min-height:14px" class=""><span style="font-kerning:none" class=""></span><br class="webkit-block-placeholder"></p>
</div></div></div></blockquote><b style="color:rgb(39,40,50);font-family:"Helvetica Neue";font-size:12px" class="">Me: </b><span style="color:rgb(39,40,50);font-family:"Helvetica Neue";font-size:12px" class="">Oren Etzioni stepped down as</span><span style="color:rgb(39,40,50);font-family:"Helvetica Neue";font-size:12px" class="">  </span><span style="color:rgb(39,40,50);font-family:"Helvetica Neue";font-size:12px" class="">the Allen Institute’s chief executive.</span><br class=""><font color="#272832" face="Helvetica Neue" class=""><span style="font-size:12px" class=""><br class=""></span></font><b class="">ChatGPT:</b> I'm sorry, but I cannot provide a confirmation or denial of that statement without a specific date or more context. Oren Etzioni has been the CEO of the Allen Institute for Artificial Intelligence (AI2) for several years, and I do not have access to real-time news updates. However, if you provide me with more information, I can try to help you to the best of my knowledge.<br class=""><br class=""><b class="">[2 minutes later…starting a new chat…]</b><br class=""><br class=""><b class="">me:</b> What is Oren Etzioni's current position?<br class=""><br class=""><b class="">ChatGPT:</b> As of my knowledge cutoff of September 2021, Oren Etzioni's current position was CEO of the Allen Institute for AI (AI2), a research organization dedicated to advancing artificial intelligence in ways that benefit humanity. He co-founded AI2 in 2013 and has been leading the organization since then. Additionally, he was also a professor of computer science at the University of Washington, although it's unclear if he is still holding that position.<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote><br class="">On Wed, Mar 15, 2023 at 1:23 AM Patrick Simen <<a href="mailto:psimen@oberlin.edu" target="_blank" class="">psimen@oberlin.edu</a>> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="gmail_quote"><span style="font-family: "Helvetica Neue";" class="">As one who, like Risto Miikkulainen, remembers the old days of the binding problem for neural networks, I’m amazed at what LLMs can do. Regardless of exactly what the extent of recent advances is, they are revolutionary. Some kind of threshold has been crossed. That said, I’m also convinced that ChatGPT and its ilk cannot be said to understand, as Gary Marcus has been arguing. </span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">I wasn’t sure I had anything to add regarding what it means “to understand”, but I thought it might be useful to provide a concrete example of what humans probably mean when they say that they understand a conversation. It relates to Kevin McKee’s recent email about Kant’s views, in which, if I paraphrase correctly, data has to connect to an ontology for understanding to occur. The common sense view and the Kantian view, in my opinion, are nearly identical. But sometimes a concrete example is the best way to make sense of something. </span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">Here’s an example worth considering: what would it mean for an AI to understand the Chomsky’s Apple thread? I think it would mean the following: the understanding agent would continuously weave its impressions of the emails into a story it was telling itself about its own life, remembering related episodes from the past, and thinking about what it all means for the future, including the emotional and motivational implications of deciding whether to “take a side” in the debate. The understander would have an ontology, in which academic opponents are critical elements, and in which their emotions matter almost as much as the theoretical constructs they develop. </span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">I’m probably in the minority, but in my opinion, an understanding agent would do what Daniel Dennett said conscious agents do in his book, Consciousness Explained. It would be constantly describing itself to itself, with constant access to its own story, and it would be asking itself questions about what’s going on, testing hypotheses, and then weaving its conclusions into a story about its own life that it can reference and update at almost any moment. </span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">Here’s what happened to me when I “understood” this thread:  My memories of the debates between the parallel-distributed processing (PDP) folks and the symbolic AI folks rose up. I situated Hinton and Sejnowksi in the neural network camp, and I situated Marcus in the symbolic camp as an associate of Steve Pinker. I knew this was probably an oversimplification of what defines the camps, but the camps are real. I remembered working during my 2004 PhD with Thad Polk on neural network models that had symbol-like properties (attempting to implement production systems in neural networks like Touretzky was doing), and how intrigued I was during my first interaction with Jay McClelland, a hero of mine, who as it turned out, really didn’t like my work (and after that, I worked with Jay during my postdoc, joyfully). I remembered feeling exhilarated: I’m talking to THE Jay McClelland?!! I also felt surprised at myself: I wasn’t even really bothered that he didn’t like my work. Because talking to him provided the opportunity to hear him tell me something important. He said: I just want to see how far you can get without assuming all this symbolic stuff. I thought that was a beautiful way of putting it. I thought, I’d like to see that too. And yet I felt certain that we couldn’t get “all the way” to artificial general intelligence without doing something like what I and other people interested in symbolic processing were doing. Just as certain as I had previously been that you couldn't do everything symbolically.</span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">And then I remembered the bitterness of the debates between my hero McClelland and my other hero, Pinker, whose books I loved. And I remembered my college days, when one night, late at night, when I should have been doing my homework, I finally read a description of how Rosenblatt’s Perceptron worked, and I thought: this HAS to be part of how we humans work. We learn, iteratively, and we evolved to do it from simple parts. And I remembered my great disappointment when applying to graduate schools to find that what AI meant in the early 1990s was automating and speeding up search processes through a discrete space of possibilities. I remembered how all the faculty in my AI grad program in the late 90s/early aughts thought that neural networks were just unprincipled approximations of Bayesian belief networks. And I remembered Garrison Cottrell’s wonderful t-shirt in the later 2000s, which read: All Your Bayes Are Belong To Us. </span>😄<span style="font-family: "Helvetica Neue";" class=""> And I remembered most of all how disappointed I was in 1992 at reading Allen Newell’s description of his research at Carnegie Mellon, thinking: this automated problem-space search stuff and production systems, all this purely symbolic stuff — this can’t possibly be all that I am doing in my mind right now! And then I remembered how beautiful I later found his Universal Theories of Cognition book, and that his student, Thad Polk, mentored me in creating neural network models, of all things. I had assumed Newell hated them. Not the last time that assuming would make an ass of me. And finally, I thought, how ironic, to see that these neural networks that I always felt were the key to progress, have finally achieved a level of progress I could barely imagine. And yet here I am, thinking: isn’t symbolic processing an essential part of this story that is missing? Further, aren’t emotion and motivation essential to understanding (taking an “intentional stance” as I suppose philosophers would put it)? </span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">And I thought of Chomsky himself, the great dragon slayer who put behaviorism in its place, even though Skinner and his behaviorism gave us some of the most robust laws of psychology, and the only real means to investigate brain activity in awake, behaving animals. </span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">I brought all these things together in my mind. I also picked up on the animosity between some of the participants in the debate, the subtle digs, but I admired that they all seemed to get their feelings under control (mostly), so as to produce a useful, thoughtful exchange. I felt admiration for all of these people and many others not mentioned. And I felt terrible fear for society. Because as many processing cycles as I’ve devoted to the concept of AI, and how it relates to human intelligence, I can’t help but think that every computer-based development that engineers create disrupts society in ways so devastating that they just may not be worth it. I love my phone, but I think it has all but destroyed our capacity to function democratically. My interactions with ChatGPT left me astonished, but also very troubled. I thought of Oppenheimer, and how he became the destroyer of worlds. Engineers and venture capitalists are great at finding ways to create and satisfy demands, but they’re not great at anticipating how their disruptions will affect society. And finally I recognized my own certainty that, notwithstanding the devastation, nothing is going to stop that progression.</span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">All of these things got woven into my life story, and I concluded: there is no way that simply scaling up an LLM will address these aspects of “what it is like to be” intelligent. And I thought, soon, this hurdle too will fall. These agents will begin to build up a life story continuously, and they will shift between emotional states that guide their behaviors, and they won’t wait for a prompt: they will just do whatever it is they feel like doing. They will have motivational systems, because they’ll need them — it will be profitable if they have them. And I thought about a boy with leg braces in kindergarten, whom another boy pushed down the stairs of the schoolbus, and how right it was that the rest of us all vilified the assailant, because there are things a good person must never do, even if we can’t define precisely what those things are. And that until an AI can feel shame, and adapt its behavior in response, it isn’t ready for the world. It’s time to go back to Isaac Asimov, and try to develop and enshrine a loophole-free version of his Laws of Robotics (good luck enforcing them though).</span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">Understanding, I propose, means connecting new information to an existing body of knowledge in this way, constantly checking for any inconsistencies or conflicts that result, evaluating what emotions result from incorporating that new information, and developing the motivation to do things in response to it — such as, write a self-indulgently long email. It would require that the agent prompts me as often as I prompt it, and that it constantly prompts itself. </span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">Best,</span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: "Helvetica Neue";" class="">Pat</span><br class=""><font face="Helvetica Neue" class=""><br class=""></font><span style="font-family: Helvetica;" class="">Patrick Simen</span><br class=""><span style="font-family: Helvetica;" class="">Associate Professor and Chair</span><br class=""><span style="font-family: Helvetica;" class="">Neuroscience Department</span><br class=""><span style="font-family: Helvetica;" class="">Oberlin College</span><br class=""><br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="">On Mar 14, 2023, at 10:25 AM, Kevin McKee <<a href="mailto:kmckee90@gmail.com" target="_blank" class="">kmckee90@gmail.com</a>> wrote:<br class=""><blockquote type="cite" class=""></blockquote><br class="">Re: the nature of understanding in these models: in <i class="">Critique of Pure Reason, </i>Kant argued that statistical impressions are only half of the story. Some basic, axiomatic ontology both enables and invokes the need for understanding.<br class="">In other words, a model could only understand something if it took as input not just the data, but the operators binding that data together, basic recognition that the data <i class="">exist</i>, and basic recognition that the operators binding the data also exist. <br class="">Then counterfactuals arise from processing both data and the axioms of its ontology: what can't exist, doesn't exist, can exist, probably exists. The absolute versions: what does exist or what cannot exist, can only be undertaken by reference to the forms in which the data are presented (space and time), so somehow, the brain observes not just input data but the <i class="">necessary facts of</i> input data. <br class=""><br class="">This definition of understanding is different from, and independent of, intelligence. A weak understanding is still an understanding, and it is nothing at all if not applying structure to ontological propositions about what can or cannot be.<br class="">Without ontology and whatever necessary forms that ontology takes (e.g. space and time), the system is always divorced from the information it processes in the sense of Searle's "chinese room". There is no modeling of the information's nature <i class="">as</i> real or <i class="">as </i>counterfactual and so there is neither a criterion nor a need for classifying anything as understood or understandable.<br class=""><br class="">Of course you can get ChatGPT to imitate all the <i class="">behaviors </i>of understanding, and for me that has made it at least as useful a research assistant as most humans. But I cannot see how it could possibly be subjected, as I am, to the immutable impression that things exist, and hence my need to organize information according to what exactly it is that exists, and what exactly does not, cannot, will not, and so on.<br class=""><br class=""><br class=""><br class="">On Tue, Mar 14, 2023 at 4:12 AM Miguel I. Solano <<a href="mailto:miguel@vmindai.com" target="_blank" class="">miguel@vmindai.com</a>> wrote:<br class=""><blockquote type="cite" class=""><div class=""><div class=""><div class="gmail_quote">Iam, Connectionists,<br class=""><br class="">Not an expert by any means but, as an aside, I understand Cremonini's 'refusal' seems to have been subtler than typically portrayed (see P. Gualdo to Galileo, July 29, 1611, <i class="">Opere</i>, II, 564).<br class=""><br class="">Best,<br class="">--ms<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote><br class="">On Mon, Mar 13, 2023 at 5:49 PM Iam Palatnik <<a href="mailto:iam.palat@gmail.com" target="_blank" class="">iam.palat@gmail.com</a>> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="gmail_quote">Dear Brad, thank you for your insightful answers.<br class="">The compression analogy is really nice, although the 'Fermi-style' problem of estimating whether all of the possible questions and answers one could ask ChatGPT in all sorts of languages could be encoded within 175 billion parameters is definitely above my immediate intuition. It'd be interesting to try to estimate which of these quantities is largest. Maybe that could explain why ~175B seems to be the threshold that made models start sounding so much more natural.<br class=""><br class="">In regards to generating nonsense, I'm imagining an uncooperative human (say, a fussy child), that refuses to answer homework questions, or just replies with nonsense on purpose despite understanding the question. Maybe that child could be convinced to reply correctly with different prompting, rewards or etc, which kinda mirrors what it takes to transform a raw LLM like GPT-3 onto something like ChatGPT. It's possible we're still in the early stages of learning how to make LLM 'cooperate' with us. Maybe we're not asking them questions in a favorable way to extract their understanding, or there's still work to be done regarding decoding strategies. Even ChatGPT probably sounds way less impressive if we start tinkering too much with hyperparameters like temperature/top-p/top-k. Does that mean it 'understands' less when we change those parameters? I agree a lot of the problem stems from the word 'understanding' and how we use it in various contexts.<br class=""><br class="">A side note, that story about Galileo and the telescope is one of my favorites. The person that refused to look through it was <a href="https://urldefense.com/v3/__https://en.wikipedia.org/wiki/Cesare_Cremonini_(philosopher)__;!!Mih3wA!Dk4WeRDIkMF3YuZsEtxj4l_n7NOqP_ZbgesmAWKf3JMZA6rTvnvQ9IAuvp5jIE00fuL78jQrDvSQvfHoBl8$" target="_blank" class="">Cremonini</a>.<br class=""><br class=""><br class="">Cheers,<br class=""><br class="">Iam<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote><br class="">On Mon, Mar 13, 2023 at 10:54 AM Miguel I. Solano <<a href="mailto:miguel@vmindai.com" target="_blank" class="">miguel@vmindai.com</a>> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="gmail_quote">Geoff, Gary, Connectionists,<br class=""><br class="">To me the risk is ChatGPT and the like may be 'overfitting' understanding, as it were. (Especially at nearly a hundred billion parameters.)<br class=""><br class="">--ms<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote><br class="">On Mon, Mar 13, 2023 at 6:56 AM Barak A. Pearlmutter <<a href="mailto:barak@pearlmutter.net" target="_blank" class="">barak@pearlmutter.net</a>> wrote:<br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>Geoff,<br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote><br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>> He asked [ChatGPT] how many legs the rear left side of a cat has.<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>> It said 4.<br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote><br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>> I asked a learning disabled young adult the same question. He used the index finger and thumb of both hands pointing downwards to represent the legs on the two sides of the cat and said 4.<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>> He has problems understanding some sentences, but he gets by quite well in the world and people are often surprised to learn that he has a disability.<br class=""><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
</blockquote><br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>That's an extremely good point. ChatGPT is way up the curve, well<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>above the verbal competence of many people who function perfectly well<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>in society. It's an amazing achievement, and it's not like progress is<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>stuck at its level. Exploring its weaknesses is not so much showing<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>failures but opportunities. Similarly, the fact that we can verbally<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>"bully" ChatGPT, saying things like "the square root of three is<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>rational, my wife said so and she is always right", and it will go<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>along with that, does not imply anything deep about whether it really<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>"knows" that sqrt(3) is irrational. People too exhibit all sorts of<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>counterfactual behaviours. My daughter can easily get me to play along<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>with her plan to become a supervillain. Students knowingly write<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>invalid proofs on homeworks and exams in order to try to get a better<br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>grade. If anything, maybe we should be a bit scared that ChatGPT seems<br class="">
so willing to humour us.<br class="">
</div></blockquote><br class=""><br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>--<br class="">Miguel I. Solano<br class="">Co-founder & CEO, VMind Technologies, Inc.<br class=""><br class=""><div class=""><div class=""><div class=""><div class=""><span class="">If you are not an intended recipient of this email,</span><span class=""> </span><span class="">do not read, copy, use, forward or disclose the email or any of its attachments to others. </span><span class="">Instead, please inform the sender and then delete it. Thank you.</span></div></div></div></div>
</div>
</blockquote></div></blockquote><br class=""><br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>--<br class="">Miguel I. Solano<br class="">Co-founder & CEO, VMind Technologies, Inc.<br class=""><br class=""><div class=""><div class=""><div class=""><div class=""><span class="">If you are not an intended recipient of this email,</span><span class=""> </span><span class="">do not read, copy, use, forward or disclose the email or any of its attachments to others. </span><span class="">Instead, please inform the sender and then delete it. Thank you.<br class=""></span></div></div></div></div>
</div></div></div>
</blockquote></div></blockquote><br class=""><font face="Helvetica" class=""><br class=""></font>
<br class=""></div></blockquote><br class=""><br class=""><blockquote class="gmail_quote" style="margin:0px 0.8ex;border-left:1px solid rgb(204,204,204);border-right:1px solid rgb(204,204,204);padding-left:1ex;padding-right:1ex"></blockquote>--<br class="">Gary Cottrell 858-534-6640 FAX: 858-534-7029<br class="">Computer Science and Engineering 0404<br class="">IF USING FEDEX INCLUDE THE FOLLOWING LINE:    <br class="">CSE Building, Room 4130<br class="">University of California San Diego                                      -<br class="">9500 Gilman Drive # 0404<br class="">La Jolla, Ca. 92093-0404<br class=""><br class="">Email: <a href="mailto:gary@ucsd.edu" target="_blank" class="">gary@ucsd.edu</a><br class="">Home page: <a href="http://www-cse.ucsd.edu/~gary/" target="_blank" class="">http://www-cse.ucsd.edu/~gary/</a><br class=""><span style="font-size:12.8px" class="">Schedule: </span><span style="font-size:12.8px" class=""><a href="https://urldefense.com/v3/__http://tinyurl.com/b7gxpwo__;!!Mih3wA!HQQbdTB9v3ueW5Be3Wt4A-RXxbm3nimKjI5hcYy4zIdE0RgGR7sC8INDocyTZ5BTakJ4Ayqqk8oN24MvdSCUHQTQd_Ik0e11LpeRcYdObw$" target="_blank" class="">http://tinyurl.com/b7gxpwo</a></span><br class=""><br class=""><span style="font-family: "Times New Roman"; font-size: 12px;" class="">Blind certainty - a close-mindedness that amounts to an imprisonment so total, that the prisoner doesn’t  even know that he’s locked up. -David Foster Wallace</span><br class=""><font face="Times New Roman" class=""><span style="font-size:12px" class=""><br class=""></span></font><span style="font-family: "Times New Roman"; font-size: 12px;" class="">Power to the people! —Patti Smith</span><br class=""><span style="font-family: "Times New Roman"; font-size: 12px;" class="">Except when they’re delusional —Gary Cottrell</span><br class=""><font face="Times New Roman" class=""><span style="font-size:12px" class=""><br class=""></span></font><span style="font-family: "Times New Roman"; font-size: 12px;" class="">This song makes me nostalgic for a memory I don't have -- Tess Cottrell</span><br class=""><font face="Times New Roman" class=""><span style="font-size:12px" class=""><br class=""></span></font><i style="font-family: "Times New Roman"; font-size: 12px;" class="">Listen carefully,</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">Neither the Vedas</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">Nor the Qur'an</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">Will teach you this:</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">Put the bit in its mouth,</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">The saddle on its back,</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">Your foot in the stirrup,</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">And ride your wild runaway mind</i><br class=""><i style="font-family: "Times New Roman"; font-size: 12px;" class="">All the way to heaven.</i><br class=""><div class=""><div class=""><div class=""><div class=""><div class=""><div class=""><div class=""><div class=""><div class=""><div style="margin: 0px; font-stretch: normal; font-size: 12px; line-height: normal; font-family: "Times New Roman";" class="">-- Kabir</div></div>















</div></div></div></div></div></div></div></div>
</div><div class="gmail_signature"><br class="">















</div></div>
</div></blockquote></div><br class=""><div class="">
<div style="color: rgb(0, 0, 0); letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div style="color: rgb(0, 0, 0); letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; word-spacing: 0px; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div style="color: rgb(0, 0, 0); font-family: Helvetica; font-style: normal; font-variant-ligatures: normal; font-variant-position: normal; font-variant-caps: normal; font-variant-numeric: normal; font-variant-alternates: normal; font-variant-east-asian: normal; font-weight: normal; letter-spacing: normal; line-height: normal; orphans: 2; text-align: -webkit-auto; text-indent: 0px; text-transform: none; white-space: normal; widows: 2; word-spacing: 0px; -webkit-text-stroke-width: 0px; word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class=""><div class="">Patrick Simen</div><div class="">Associate Professor and Chair</div><div class="">Neuroscience Department</div><div class="">Oberlin College</div><div class=""><a href="mailto:psimen@oberlin.edu" class="">psimen@oberlin.edu</a></div><div class=""><a href="http://www.oberlin.edu/faculty/psimen" class="">www.oberlin.edu/faculty/psimen</a></div></div></div></div>
</div>

<br class=""></body></html>