<div dir="ltr">I agree with Hypothesis 1 as false with the caveat that the answer to the question: what does understanding language mean itself is really contentious, different and also cultural. I believe LLMs understand the structure of language and the logic underneath it including mapping structures to each other (in purely mathematical functional terms)<div>. I don't believe LLMs 'understand' the significance of it in a way humans do. They are just learning a different type of mathematical interpretation of something we associate a deeper meaning to. </div><div><br></div><div>Hypothesis 2 : Yes this is going to be exciting as it grows to become a part of something much bigger. 100% agree that is a component of a system that will evolve to be more complex with different reasoning/planning capabilities that hasn't really come together yet. </div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Feb 19, 2024 at 3:49 PM Gary Marcus <<a href="mailto:gary.marcus@nyu.edu">gary.marcus@nyu.edu</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hypothesis 1: LLMs (deeply) understand language: false<br>
<br>
Hypothesis 2: LLMs could play an important part of a larger, modular systems, perhaps neurosymbolic, and perhaps partly prestructured prior to learning, that could conceivably eventually deeply understand language: open for investigation <br>
<br>
> On Feb 19, 2024, at 6:50 AM, Iam Palatnik <<a href="mailto:iam.palat@gmail.com" target="_blank">iam.palat@gmail.com</a>> wrote:<br>
> <br>
> I definitely feel like the [LLM + function-call + code-interpreter + external-source search<br>
<br>
</blockquote></div>