The Vector Grounding Problem

要約

タイトル:ベクトルのグラウンディング問題
要約:
– 大規模言語モデルが複雑な言語タスクで優れたパフォーマンスを発揮していることから、これらのモデルの能力の本質に関する議論が活発になっている。
– これらのモデルは、現実世界との直接的な相互作用なしにテキストデータのみから言語を学習する。
– 現代のLLMsは、シンボルではなくベクトル上で計算する人工ニューラルネットワークであるため、古典的なシンボルAIシステムとは異なる。
– この論文には、内部表現が生物学的または人工系において何らかのグラウンディング(物理的な現実に引き付けられる)を持つ場合に、意味を持つことができるかどうかに関する、ベクトルのグラウンディング問題がある。
– この論文は、以下の2つの目的を持っている。1つ目は、リファレンシャル、センサーモーター、リレーショナル、コミュニケーション、エピステミックグラウンディングという5つの異なるグラウンディングの概念を明確にし、それらの間の違いを説明することである。2つ目は、哲学と認知科学の表現内容の理論に基づいて、RLHFで微調整された特定のLLMsが、内在的な意味を支える物理的な歴史的関係に立っているため、必要な特徴を持つことを提案することである。
– マルチモダリティと具現化は、人工的なシステムにおいてリファレンシャルグラウンディングのために必要でも十分な条件ではないことも示す。

要約(オリジナル)

The remarkable performance of large language models (LLMs) on complex linguistic tasks has sparked a lively debate on the nature of their capabilities. Unlike humans, these models learn language exclusively from textual data, without direct interaction with the real world. Nevertheless, they can generate seemingly meaningful text about a wide range of topics. This impressive accomplishment has rekindled interest in the classical ‘Symbol Grounding Problem,’ which questioned whether the internal representations and outputs of classical symbolic AI systems could possess intrinsic meaning. Unlike these systems, modern LLMs are artificial neural networks that compute over vectors rather than symbols. However, an analogous problem arises for such systems, which we dub the Vector Grounding Problem. This paper has two primary objectives. First, we differentiate various ways in which internal representations can be grounded in biological or artificial systems, identifying five distinct notions discussed in the literature: referential, sensorimotor, relational, communicative, and epistemic grounding. Unfortunately, these notions of grounding are often conflated. We clarify the differences between them, and argue that referential grounding is the one that lies at the heart of the Vector Grounding Problem. Second, drawing on theories of representational content in philosophy and cognitive science, we propose that certain LLMs, particularly those fine-tuned with Reinforcement Learning from Human Feedback (RLHF), possess the necessary features to overcome the Vector Grounding Problem, as they stand in the requisite causal-historical relations to the world that underpin intrinsic meaning. We also argue that, perhaps unexpectedly, multimodality and embodiment are neither necessary nor sufficient conditions for referential grounding in artificial systems.

arxiv情報

著者 Dimitri Coelho Mollo,Raphaël Millière
発行日 2023-04-04 02:54:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク