Meaning and understanding in large language models

要約

機械は自然言語の意味を理解できるでしょうか?
人工知能の生成大規模言語モデル (LLM) の最近の開発により、機械による言語理解に関する従来の哲学的前提を修正する必要があるという考えが生まれています。
この記事は、機械語のパフォーマンスを単なる構文操作や理解のシミュレーションと見なす一般的な傾向を批判的に評価しますが、それは世界に十分な参照根拠がなく、部分的で非常に浅いものにすぎません。
その目的は、自然言語理解が最先端の LLM によるものであると考えるために重要な条件を強調することです。LLM は構文だけでなく意味論も使用し、その理解はシミュレートされるのではなく複製されると正当に主張できます。
そして言語表現の意味をどのように根拠づけるかを決定します。

要約(オリジナル)

Can a machine understand the meanings of natural language? Recent developments in the generative large language models (LLMs) of artificial intelligence have led to the belief that traditional philosophical assumptions about machine understanding of language need to be revised. This article critically evaluates the prevailing tendency to regard machine language performance as mere syntactic manipulation and the simulation of understanding, which is only partial and very shallow, without sufficient referential grounding in the world. The aim is to highlight the conditions crucial to attributing natural language understanding to state-of-the-art LLMs, where it can be legitimately argued that LLMs not only use syntax but also semantics, their understanding not being simulated but duplicated; and determine how they ground the meanings of linguistic expressions.

arxiv情報

著者 Vladimír Havlík
発行日 2023-10-26 14:06:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク