要約
Yuval Noah Harariによると、大規模な人間の協力は、一般的な信念と価値をコードする共有された物語によって推進されています。
この研究では、そのような物語が同様にLLMエージェントをコラボレーションに向けて微調整できるかどうかを調査します。
LLMエージェントが協同組合または利己的な支出戦略を選択する有限の繰り返しの公共財ゲームを使用しています。
私たちは、チームワークをさまざまな程度に強調しているストーリーを備えたエージェントをプライミングし、これが交渉の結果にどのように影響するかをテストします。
私たちの実験では、4つの質問を探ります。(1)物語は交渉行動にどのように影響しますか?
(2)エージェントが同じストーリーと異なるストーリーを共有する場合、何が異なりますか?
(3)エージェント番号が成長するとどうなりますか?
(4)エージェントは利己的な交渉者に対して回復力がありますか?
ストーリーベースのプライミングは、交渉戦略と成功率に大きく影響することがわかります。
コモンストーリーは、各エージェントに利益をもたらし、コラボレーションを改善します。
対照的に、異なるストーリーを持つプライミングエージェントはこの効果を逆転させ、それらのエージェントは自己利益に向かってプライミングされました。
これらの結果は、マルチエージェントシステムの設計とAIアライメントに影響を与えると仮定します。
要約(オリジナル)
According to Yuval Noah Harari, large-scale human cooperation is driven by shared narratives that encode common beliefs and values. This study explores whether such narratives can similarly nudge LLM agents toward collaboration. We use a finitely repeated public goods game in which LLM agents choose either cooperative or egoistic spending strategies. We prime agents with stories highlighting teamwork to different degrees and test how this influences negotiation outcomes. Our experiments explore four questions:(1) How do narratives influence negotiation behavior? (2) What differs when agents share the same story versus different ones? (3) What happens when the agent numbers grow? (4) Are agents resilient against self-serving negotiators? We find that story-based priming significantly affects negotiation strategies and success rates. Common stories improve collaboration, benefiting each agent. By contrast, priming agents with different stories reverses this effect, and those agents primed toward self-interest prevail. We hypothesize that these results carry implications for multi-agent system design and AI alignment.
arxiv情報
著者 | Gerrit Großmann,Larisa Ivanova,Sai Leela Poduru,Mohaddeseh Tabrizian,Islam Mesabah,David A. Selby,Sebastian J. Vollmer |
発行日 | 2025-05-08 08:29:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google