Artificial Agency and Large Language Models

要約

大規模言語モデル (LLM) の登場により、人工的な方法でエージェンシーを実現する可能性についての哲学的議論が巻き起こりました。
この研究では、人工エージェントの閾値概念として使用できる理論モデルを提示することで議論に貢献します。
このモデルは、エージェントをシステムとして定義し、その行動と目標は、エージェントのアクセス可能な履歴、その適応レパートリー、およびその外部環境から構成される動的な要因の枠組みによって常に影響を受けます。
このフレームワークは、エージェントが実行するアクションとエージェントが形成する目標によって影響を受けます。
このモデルの助けを借りて、最先端の LLM はまだエージェントではないが、前進する方法を示唆する要素があることを示します。
この論文は、Park et al. で提示されたエージェント アーキテクチャの組み合わせが有効であると主張しています。
(2023) Boiko et al. の Coscientist のようなモジュールの使用を併用します。
(2023) は、人工的な方法でエージェンシーを実現する方法になる可能性があります。
このような人工エージェントを構築する際に直面する可能性のある障害を振り返り、将来の研究に向けて考えられる方向性を提示してこの論文を終わります。

要約(オリジナル)

The arrival of Large Language Models (LLMs) has stirred up philosophical debates about the possibility of realizing agency in an artificial manner. In this work we contribute to the debate by presenting a theoretical model that can be used as a threshold conception for artificial agents. The model defines agents as systems whose actions and goals are always influenced by a dynamic framework of factors that consists of the agent’s accessible history, its adaptive repertoire and its external environment. This framework, in turn, is influenced by the actions that the agent takes and the goals that it forms. We show with the help of the model that state-of-the-art LLMs are not agents yet, but that there are elements to them that suggest a way forward. The paper argues that a combination of the agent architecture presented in Park et al. (2023) together with the use of modules like the Coscientist in Boiko et al. (2023) could potentially be a way to realize agency in an artificial manner. We end the paper by reflecting on the obstacles one might face in building such an artificial agent and by presenting possible directions for future research.

arxiv情報

著者 Maud van Lier,Gorka Muñoz-Gil
発行日 2024-07-24 07:32:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.ET パーマリンク