要約
ラージ・ランゲージ・モデル(LLM)エージェントは、社会科学やロールプレイング・アプリケーションにおいて、人間をモデル化するシミュレーション・ツールとして採用されつつある。しかし、LLMエージェントは本当に人間の行動をシミュレートできるのだろうか?本論文では、人間の相互作用における重要かつ本質的な行動の1つである「信頼」に焦点を当て、LLMエージェントが人間の信頼行動をシミュレートできるかどうかを調査する。まず、行動経済学で広く認知されているトラストゲームの枠組みの下で、LLMエージェントが一般的にエージェント信頼と呼ばれる信頼行動を示すことを発見する。そして、GPT-4エージェントは、信頼行動において人間と高い行動整合性を示すことを発見し、LLMエージェントによる人間の信頼行動のシミュレーションが可能であることを示す。さらに、エージェントの信頼の偏りや、他のLLMエージェントや人間に対するエージェントの信頼の違いを探る。また、外部操作や高度な推論戦略を含む条件下におけるエージェントの信頼の本質的な特性についても探求する。我々の研究は、LLMエージェントの行動と、価値観の一致を超えたLLMと人間の間の基本的な類似性についての新たな洞察を提供する。さらに、我々の発見が、信頼が最重要となるアプリケーションにおいて、より広範な意味を持つことを示す。
要約(オリジナル)
Large Language Model (LLM) agents have been increasingly adopted as simulation tools to model humans in social science and role-playing applications. However, one fundamental question remains: can LLM agents really simulate human behavior? In this paper, we focus on one critical and elemental behavior in human interactions, trust, and investigate whether LLM agents can simulate human trust behavior. We first find that LLM agents generally exhibit trust behavior, referred to as agent trust, under the framework of Trust Games, which are widely recognized in behavioral economics. Then, we discover that GPT-4 agents manifest high behavioral alignment with humans in terms of trust behavior, indicating the feasibility of simulating human trust behavior with LLM agents. In addition, we probe the biases of agent trust and differences in agent trust towards other LLM agents and humans. We also explore the intrinsic properties of agent trust under conditions including external manipulations and advanced reasoning strategies. Our study provides new insights into the behaviors of LLM agents and the fundamental analogy between LLMs and humans beyond value alignment. We further illustrate broader implications of our discoveries for applications where trust is paramount.
arxiv情報
著者 | Chengxing Xie,Canyu Chen,Feiran Jia,Ziyu Ye,Shiyang Lai,Kai Shu,Jindong Gu,Adel Bibi,Ziniu Hu,David Jurgens,James Evans,Philip Torr,Bernard Ghanem,Guohao Li |
発行日 | 2024-11-01 16:10:41+00:00 |
arxivサイト | arxiv_id(pdf) |