要約
大規模な言語モデルとの相互作用により、これらのモデルが近いうちに意識を持つようになる可能性があるという示唆が得られています。
神経科学の観点から見ると、この立場を擁護するのは困難です。
まず、大規模な言語モデルへの入力には、私たちの周囲の世界との感覚的接触に特徴的な、具体化された埋め込み情報コンテンツが欠けています。
第二に、大規模な言語モデルのアーキテクチャには、哺乳類の意識と関連している視床皮質システムの重要な特徴が欠けています。
最後に、意識を持った生物の出現につながった進化と発達の軌跡は、おそらく今日想像されているような人工システムに類似するものはありません。
生物の存在は生物の行動に依存しており、生物の生存は多層の細胞プロセス、細胞間プロセス、および生物プロセスと複雑に関連しており、最終的には主体性と意識に達します。
要約(オリジナル)
Interactions with large language models have led to the suggestion that these models may soon be conscious. From the perspective of neuroscience, this position is difficult to defend. For one, the inputs to large language models lack the embodied, embedded information content characteristic of our sensory contact with the world around us. Secondly, the architecture of large language models is missing key features of the thalamocortical system that have been linked to conscious awareness in mammals. Finally, the evolutionary and developmental trajectories that led to the emergence of living conscious organisms arguably have no parallels in artificial systems as envisioned today. The existence of living organisms depends on their actions, and their survival is intricately linked to multi-level cellular, inter-cellular, and organismal processes culminating in agency and consciousness.
arxiv情報
著者 | Jaan Aru,Matthew Larkum,James M. Shine |
発行日 | 2023-08-28 16:36:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google