要約
LLM の最近の進歩により、LLM がテキストを理解できるかどうかについての議論が巻き起こりました。
この意見書では、この議論の反対派は理解について異なる定義を持っており、特に意識の役割についての見解が異なると主張します。
この主張を実証するために、一見主観的な経験がなくても、考えられるすべてのベンチマークで優れているオープンソースのチャットボット $Z$ を使用した思考実験を提案します。
私たちは、$Z$ が理解できるかどうかを尋ね、独創的な AI 研究内のさまざまな学派がこの質問に対して異なる答えをしているように見えることを示し、用語上の不一致を明らかにします。
今後、私たちは、意識の問題を明確に認識し、哲学、心理学、神経科学の豊富な文献とのつながりを引き出す、理解のための 2 つの異なる実用的な定義を提案します。
要約(オリジナル)
Recent advances in LLMs have sparked a debate on whether they understand text. In this position paper, we argue that opponents in this debate hold different definitions for understanding, and particularly differ in their view on the role of consciousness. To substantiate this claim, we propose a thought experiment involving an open-source chatbot $Z$ which excels on every possible benchmark, seemingly without subjective experience. We ask whether $Z$ is capable of understanding, and show that different schools of thought within seminal AI research seem to answer this question differently, uncovering their terminological disagreement. Moving forward, we propose two distinct working definitions for understanding which explicitly acknowledge the question of consciousness, and draw connections with a rich literature in philosophy, psychology and neuroscience.
arxiv情報
著者 | Ariel Goldstein,Gabriel Stanovsky |
発行日 | 2024-07-11 15:39:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google