要約
大規模な言語モデルとの相互作用により、これらのモデルが意識を持っている可能性があることが示唆されています。
神経科学の観点から見ると、この立場を擁護するのは困難です。
まず、大規模な言語モデルのアーキテクチャには、哺乳類の意識に関連している視床皮質システムの重要な特徴が欠けています。
第二に、大規模な言語モデルへの入力には、私たちの周囲の世界との感覚的接触に特徴的な、具体化された埋め込まれた情報コンテンツが欠けています。
最後に、前の 2 つの議論は将来の AI システムで克服できる可能性がありますが、3 番目の議論は近い将来に橋渡しするのが難しくなる可能性があります。
つまり、システムの存在はその動作に依存するという点で、意識は「ゲーム内のスキン」の有無に依存する可能性があると主張しますが、これは現在の人工知能には当てはまりません。
要約(オリジナル)
Interactions with large language models have led to the suggestion that these models may be conscious. From the perspective of neuroscience, this position is difficult to defend. For one, the architecture of large language models is missing key features of the thalamocortical system that have been linked to conscious awareness in mammals. Secondly, the inputs to large language models lack the embodied, embedded information content characteristic of our sensory contact with the world around us. Finally, while the previous two arguments can be overcome in future AI systems, the third one might be harder to bridge in the near future. Namely, we argue that consciousness might depend on having ‘skin in the game’, in that the existence of the system depends on its actions, which is not true for present-day artificial intelligence.
arxiv情報
著者 | Jaan Aru,Matthew Larkum,James M. Shine |
発行日 | 2023-06-01 17:18:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google