要約
タイトル:
大規模言語モデルは意識を持つことができるか?
要約:
大規模言語モデルが感覚的あるいは意識的である可能性について最近広く議論されています。私は、その考えを真剣に受け止めるべき理由と受け止めるべきでない理由を分析します。意識の科学における主流の仮定に基づくと、現在のモデルには意識を持つための重要な障壁が存在します。たとえば、再帰処理、グローバルなワークスペース、そして統一されたエージェンシーの欠如などです。一方、これらの障壁は今後10年ほどで克服される可能性があります。現在の大規模言語モデルが意識を持っている可能性はかなり低いと結論付けますが、大規模言語モデルの後継者が将来的に意識を持っている可能性があるため、真剣に受け止める必要があります。
要点:
– 大規模言語モデルが感覚的あるいは意識的である可能性について広く議論されている。
– 現在のモデルには、意識を持つための障壁がある。たとえば、再帰処理、グローバルなワークスペース、統一されたエージェンシーの欠如などが挙げられる。
– これらの障壁は今後10年ほどで克服される可能性がある。
– 現在の大規模言語モデルが意識を持っている可能性は低いが、後継者が将来的に意識を持っている可能性がある。
– この可能性を真剣に受け止める必要がある。
要約(オリジナル)
There has recently been widespread discussion of whether large language models might be sentient or conscious. Should we take this idea seriously? I will break down the strongest reasons for and against. Given mainstream assumptions in the science of consciousness, there are significant obstacles to consciousness in current models: for example, their lack of recurrent processing, a global workspace, and unified agency. At the same time, it is quite possible that these obstacles will be overcome in the next decade or so. I conclude that while it is somewhat unlikely that current large language models are conscious, we should take seriously the possibility that successors to large language models may be conscious in the not-too-distant future.
arxiv情報
著者 | David J. Chalmers |
発行日 | 2023-04-29 18:35:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI