要約
大規模な言語モデル(LLM)が言語を知っている、またはたとえばパリがフランスの首都であることを知っていると想定されることがあります。
しかし、LLMSは実際に何を知っているのでしょうか?
この論文では、LLMSはMartin Davies(1990)によって定義されているように、暗黙の知識を取得できると主張しています。
Davies自身は、ニューラルネットワークが暗黙の知識を獲得できることを否定していますが、LLMの特定のアーキテクチャの特徴がセマンティックな説明、構文構造、因果体系の制約を満たすことを実証します。
したがって、暗黙の知識は、LLMとその行動を説明、説明、介入するための概念的な枠組みとして機能する可能性があります。
要約(オリジナル)
It is sometimes assumed that Large Language Models (LLMs) know language, or for example that they know that Paris is the capital of France. But what — if anything — do LLMs actually know? In this paper, I argue that LLMs can acquire tacit knowledge as defined by Martin Davies (1990). Whereas Davies himself denies that neural networks can acquire tacit knowledge, I demonstrate that certain architectural features of LLMs satisfy the constraints of semantic description, syntactic structure, and causal systematicity. Thus, tacit knowledge may serve as a conceptual framework for describing, explaining, and intervening on LLMs and their behavior.
arxiv情報
著者 | Céline Budding |
発行日 | 2025-04-16 15:42:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google