要約
世界を理解し、関与している対話の意味を捉える能力に関して、大規模な言語モデル(LLMS)の並外れた出現以来、活発な進行中の議論が行われています。
議論と反論は、思考実験、LLMと人間の間の逸話的な会話、統計的言語分析、哲学的考慮事項などに基づいて提案されています。
この短い論文では、思考実験と半形式の考慮事項に基づいた反論を提示します。これは、LLMが驚くほど流fluent的な対話の意味を理解することを妨げる固有の曖昧さの障壁につながります。
要約(オリジナル)
A lively ongoing debate is taking place, since the extraordinary emergence of Large Language Models (LLMs) with regards to their capability to understand the world and capture the meaning of the dialogues in which they are involved. Arguments and counter-arguments have been proposed based upon thought experiments, anecdotal conversations between LLMs and humans, statistical linguistic analysis, philosophical considerations, and more. In this brief paper we present a counter-argument based upon a thought experiment and semi-formal considerations leading to an inherent ambiguity barrier which prevents LLMs from having any understanding of what their amazingly fluent dialogues mean.
arxiv情報
著者 | Daniel N. Nissani |
発行日 | 2025-05-08 10:52:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google