Deanthropomorphising NLP: Can a Language Model Be Conscious?

要約

この研究は、Transformer モデル アーキテクチャに基づいた事前トレーニングされた大規模言語モデル (LLM) が知覚できるという以前の主張に対する議論の声を代弁することを目的としています。
このような主張は、LaMDA モデルに関して、また ChatGPT などの LLM を利用したチャットボットの現在の波に関しても行われています。
この主張が確認されれば、同様のモデルが広く使用されているため、自然言語処理 (NLP) コミュニティに深刻な影響を与えることになります。
しかし、ここで私たちは、そのような大規模な言語モデルが感覚を持ったり、意識を持ったりすることはあり得ず、特に LaMDA はそれを認定する他の同様のモデルに比べて何の進歩も示さないという立場をとります。
私たちは、意識の統合情報理論を通じて Transformer アーキテクチャを分析することで、これを正当化します。
私たちは、知覚力の主張は、NLP レポートで擬人化された言語を使用する広範な傾向の一部であると考えています。
主張の真実性に関係なく、私たちはこれが言語モデリングの進歩を評価し、このタスクの倫理的意味を検討する絶好の機会であると考えています。
この作品を NLP コミュニティ以外の読者にも役立つようにするために、言語モデリングに必要な背景も紹介します。

要約(オリジナル)

This work is intended as a voice in the discussion over previous claims that a pretrained large language model (LLM) based on the Transformer model architecture can be sentient. Such claims have been made concerning the LaMDA model and also concerning the current wave of LLM-powered chatbots, such as ChatGPT. This claim, if confirmed, would have serious ramifications in the Natural Language Processing (NLP) community due to wide-spread use of similar models. However, here we take the position that such a large language model cannot be sentient, or conscious, and that LaMDA in particular exhibits no advances over other similar models that would qualify it. We justify this by analysing the Transformer architecture through Integrated Information Theory of consciousness. We see the claims of sentience as part of a wider tendency to use anthropomorphic language in NLP reporting. Regardless of the veracity of the claims, we consider this an opportune moment to take stock of progress in language modelling and consider the ethical implications of the task. In order to make this work helpful for readers outside the NLP community, we also present the necessary background in language modelling.

arxiv情報

著者 Matthew Shardlow,Piotr Przybyła
発行日 2023-08-31 15:43:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク