Shall We Team Up: Exploring Spontaneous Cooperation of Competing LLM Agents

要約

大規模言語モデル (LLM) は、社会シミュレーションでの利用が増えており、シミュレーション中に人間のような動作を安定して示すために、慎重に作成された命令によって導かれることがよくあります。
それにもかかわらず、正確な社会シミュレーションのためにエージェントの行動を形成する必要性には疑問があります。
代わりに、この論文では、エージェントが状況に深く関与し、明示的な指示なしに適応的な決定を下す自発的現象の重要性を強調しています。
私たちは 3 つの競争シナリオにわたって自発的な協力を調査し、協力が段階的に出現するシミュレーションに成功しました。これは人間の行動データと密接に一致する結果でした。
このアプローチは、計算社会科学コミュニティがシミュレーションと現実世界のダイナミクスの間のギャップを埋めるのに役立つだけでなく、AI コミュニティに LLM の意図的な推論能力を評価する新しい方法を提供します。

要約(オリジナル)

Large Language Models (LLMs) have increasingly been utilized in social simulations, where they are often guided by carefully crafted instructions to stably exhibit human-like behaviors during simulations. Nevertheless, we doubt the necessity of shaping agents’ behaviors for accurate social simulations. Instead, this paper emphasizes the importance of spontaneous phenomena, wherein agents deeply engage in contexts and make adaptive decisions without explicit directions. We explored spontaneous cooperation across three competitive scenarios and successfully simulated the gradual emergence of cooperation, findings that align closely with human behavioral data. This approach not only aids the computational social science community in bridging the gap between simulations and real-world dynamics but also offers the AI community a novel method to assess LLMs’ capability of deliberate reasoning.

arxiv情報

著者 Zengqing Wu,Run Peng,Shuyuan Zheng,Qianying Liu,Xu Han,Brian Inhyuk Kwon,Makoto Onizuka,Shaojie Tang,Chuan Xiao
発行日 2024-07-02 17:56:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.MA, econ.GN, q-fin.EC パーマリンク