Deanthropomorphising NLP: Can a Language Model Be Conscious?

要約

この研究は、Transformer モデル アーキテクチャに基づいた事前トレーニング済み言語モデルである LaMDA には知覚力があるという最近の主張に対する議論の声を代弁することを目的としています。
この主張が確認されれば、同様のモデルが広く使用されているため、自然言語処理 (NLP) コミュニティに深刻な影響を与えることになります。
しかし、ここでは、そのような言語モデルは感覚を持ったり、意識を持ったりすることはできず、特に LaMDA はそれを認定する他の同様のモデルに比べて何の進歩も示さないという立場をとります。
統合情報理論を通じて Transformer アーキテクチャを分析することで、これを正当化します。
私たちは、意識の主張は、NLP の報道において擬人化された言語を使用する広範な傾向の一部であると考えています。
主張の真実性に関係なく、私たちはこれが言語モデリングの進歩を評価し、このタスクの倫理的意味を検討する絶好の機会であると考えています。
この作品を NLP コミュニティ以外の読者にも役立つようにするために、言語モデリングに必要な背景も紹介します。

要約(オリジナル)

This work is intended as a voice in the discussion over the recent claims that LaMDA, a pretrained language model based on the Transformer model architecture, is sentient. This claim, if confirmed, would have serious ramifications in the Natural Language Processing (NLP) community due to wide-spread use of similar models. However, here we take the position that such a language model cannot be sentient, or conscious, and that LaMDA in particular exhibits no advances over other similar models that would qualify it. We justify this by analysing the Transformer architecture through Integrated Information Theory. We see the claims of consciousness as part of a wider tendency to use anthropomorphic language in NLP reporting. Regardless of the veracity of the claims, we consider this an opportune moment to take stock of progress in language modelling and consider the ethical implications of the task. In order to make this work helpful for readers outside the NLP community, we also present the necessary background in language modelling.

arxiv情報

著者 Matthew Shardlow,Piotr Przybyła
発行日 2023-05-18 13:53:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク