要約
この論文では、ChatGPT のような大規模言語モデル (LLM) のオントロジ的特徴付けを調査します。
インフレ口座とデフレ口座の間では、エージェントとしてのステータスに特別な注意を払っています。
これには、LLM がその能力を発揮できるようにするアーキテクチャ、処理、トレーニング手順、および LLM をエージェントのようなシステムに変えるために使用される拡張機能を詳細に説明する必要があります。
体系的な分析の結果、LLMは身体化された心の理論に照らして、自律的主体性のための必要十分条件、つまり個性条件(それ自体の活動の産物ではなく、活動の直接的な影響さえ受けていない)を満たしていないという結論に達しました。
)、規範性条件(独自の規範や目標を生成しない)、および部分的に相互作用の非対称性条件(環境との相互作用の起源および持続的な源ではない)。
エージェントではない場合は、LLM とは何ですか?
私たちは、ChatGPT は、対話者または言語オートマトン、つまり、(自律的な) 主体性を持たないが、目的を持たないが目的構造化され、目的が限定されたタスクに遂行的に関与できる、対話するライブラリとして特徴付けられるべきであると主張します。
人間と対話するとき、人間とマシンの対話の「幽霊的な」コンポーネントにより、LLM との本物の会話体験を実現することが可能になります。
感覚運動的および生物学的具体化が欠如しているにもかかわらず、LLM のテキスト的具体化 (トレーニング コーパス) とリソースを大量に消費する計算による具体化は、人間の主体性の既存の形態を大きく変革します。
LLM と人間のカップリングは、支援され拡張された主体性を超えて、以前のテクノロジーの拡張された手段よりも意図的な主体性の生成に近い、中間的な形式の主体性を生み出すことができます。
要約(オリジナル)
This paper investigates the ontological characterization of Large Language Models (LLMs) like ChatGPT. Between inflationary and deflationary accounts, we pay special attention to their status as agents. This requires explaining in detail the architecture, processing, and training procedures that enable LLMs to display their capacities, and the extensions used to turn LLMs into agent-like systems. After a systematic analysis we conclude that a LLM fails to meet necessary and sufficient conditions for autonomous agency in the light of embodied theories of mind: the individuality condition (it is not the product of its own activity, it is not even directly affected by it), the normativity condition (it does not generate its own norms or goals), and, partially the interactional asymmetry condition (it is not the origin and sustained source of its interaction with the environment). If not agents, then … what are LLMs? We argue that ChatGPT should be characterized as an interlocutor or linguistic automaton, a library-that-talks, devoid of (autonomous) agency, but capable to engage performatively on non-purposeful yet purpose-structured and purpose-bounded tasks. When interacting with humans, a ‘ghostly’ component of the human-machine interaction makes it possible to enact genuine conversational experiences with LLMs. Despite their lack of sensorimotor and biological embodiment, LLMs textual embodiment (the training corpus) and resource-hungry computational embodiment, significantly transform existing forms of human agency. Beyond assisted and extended agency, the LLM-human coupling can produce midtended forms of agency, closer to the production of intentional agency than to the extended instrumentality of any previous technologies.
arxiv情報
著者 | Xabier E. Barandiaran,Lola S. Almendros |
発行日 | 2024-07-15 14:01:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google