Talking About Large Language Models

要約

人工知能の急速な進歩により、テクノロジーと哲学が興味深い形で交差する時代に突入しました。
この交差点の中心に堂々と座っているのが大規模言語モデル (LLM) です。
LLM が人間の言語を模倣することに熟達すればするほど、LLM が組み込まれているシステムを実際よりも人間に似たものとして見なすようになり、擬人化に対して脆弱になります。
この傾向は、これらのシステムを説明するときに、「知っている」、「信じる」、「考える」などの哲学的な用語を使用する自然な傾向によって増幅されます。
この傾向を緩和するために、このホワイト ペーパーでは、LLM と LLM がその一部を形成するシステムが実際にどのように機能するかを思い出すために、繰り返し後退することを推奨しています。
期待されるのは、科学の精度が向上することで、人工知能に関する議論が、分野内でも公共の場でも、より哲学的なニュアンスを促進することです。

要約(オリジナル)

Thanks to rapid progress in artificial intelligence, we have entered an era when technology and philosophy intersect in interesting ways. Sitting squarely at the centre of this intersection are large language models (LLMs). The more adept LLMs become at mimicking human language, the more vulnerable we become to anthropomorphism, to seeing the systems in which they are embedded as more human-like than they really are. This trend is amplified by the natural tendency to use philosophically loaded terms, such as ‘knows’, ‘believes’, and ‘thinks’, when describing these systems. To mitigate this trend, this paper advocates the practice of repeatedly stepping back to remind ourselves of how LLMs, and the systems of which they form a part, actually work. The hope is that increased scientific precision will encourage more philosophical nuance in the discourse around artificial intelligence, both within the field and in the public sphere.

arxiv情報

著者 Murray Shanahan
発行日 2023-02-16 14:44:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク