要約
Large Language Model (LLM) エージェントは、社会科学やロールプレイング アプリケーションで人間をモデル化するためのシミュレーション ツールとして採用されることが増えています。
しかし、根本的な疑問が 1 つ残っています。LLM エージェントは本当に人間の行動をシミュレートできるのでしょうか?
この論文では、人間の相互作用における 1 つの要素動作である信頼に焦点を当て、LLM エージェントが人間の信頼動作をシミュレートできるかどうかを調査します。
まず、LLM エージェントは一般に、行動経済学で広く認識されているトラスト ゲームの枠組みの下で、エージェント信頼と呼ばれる信頼行動を示すことがわかりました。
次に、GPT-4 エージェントが信頼行動の点で人間との高い行動的一致を示していることを発見し、LLM エージェントを使用して人間の信頼行動をシミュレートする実現可能性を示しています。
さらに、エージェントの信頼の偏りや、他の LLM エージェントや人間に対するエージェントの信頼の違いを調査します。
また、外部操作や高度な推論戦略などの条件下でのエージェントの信頼の本質的な特性も調査します。
私たちの研究は、LLM エージェントの行動と、価値観の一致を超えた LLM と人間の間の基本的な類似性についての新たな洞察を提供します。
さらに、信頼が最優先されるアプリケーションに対する発見の広範な影響についても説明します。
要約(オリジナル)
Large Language Model (LLM) agents have been increasingly adopted as simulation tools to model humans in social science and role-playing applications. However, one fundamental question remains: can LLM agents really simulate human behavior? In this paper, we focus on one elemental behavior in human interactions, trust, and investigate whether LLM agents can simulate human trust behavior. We first find that LLM agents generally exhibit trust behavior, referred to as agent trust, under the framework of Trust Games, which are widely recognized in behavioral economics. Then, we discover that GPT-4 agents manifest high behavioral alignment with humans in terms of trust behavior, indicating the feasibility of simulating human trust behavior with LLM agents. In addition, we probe the biases of agent trust and differences in agent trust towards other LLM agents and humans. We also explore the intrinsic properties of agent trust under conditions including external manipulations and advanced reasoning strategies. Our study provides new insights into the behaviors of LLM agents and the fundamental analogy between LLMs and humans beyond value alignment. We further illustrate broader implications of our discoveries for applications where trust is paramount.
arxiv情報
著者 | Chengxing Xie,Canyu Chen,Feiran Jia,Ziyu Ye,Shiyang Lai,Kai Shu,Jindong Gu,Adel Bibi,Ziniu Hu,David Jurgens,James Evans,Philip Torr,Bernard Ghanem,Guohao Li |
発行日 | 2024-10-31 12:59:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google