要約
この論文では、人間の戦略的行動の代理として LLM エージェントを強化学習 (RL) と組み合わせて、これらのエージェントをチーム環境内で進化する戦略的相互作用に関与させる新しいフレームワークを紹介します。
私たちのアプローチは、戦略的 LLM エージェント (SLA) を使用し、ネットワーク内のエージェント間の情報アクセスを調整する社会向推進型 RL エージェント (PPA) を介して動的で適応的なガバナンスを導入することにより、従来のエージェントベースのシミュレーションを拡張し、社会福祉を最適化し、社会的福祉を促進します。
社会的な行動。
囚人のジレンマを含む反復ゲームでの検証を通じて、SLA エージェントが微妙な戦略的適応を示すことを実証します。
PPA エージェントは情報の透明性を調整する方法を効果的に学習し、その結果、協力率が向上します。
このフレームワークは、AI を介した社会的ダイナミクスに関する重要な洞察を提供し、現実世界のチーム設定での AI の導入に貢献します。
要約(オリジナル)
This paper introduces a novel framework combining LLM agents as proxies for human strategic behavior with reinforcement learning (RL) to engage these agents in evolving strategic interactions within team environments. Our approach extends traditional agent-based simulations by using strategic LLM agents (SLA) and introducing dynamic and adaptive governance through a pro-social promoting RL agent (PPA) that modulates information access across agents in a network, optimizing social welfare and promoting pro-social behavior. Through validation in iterative games, including the prisoner dilemma, we demonstrate that SLA agents exhibit nuanced strategic adaptations. The PPA agent effectively learns to adjust information transparency, resulting in enhanced cooperation rates. This framework offers significant insights into AI-mediated social dynamics, contributing to the deployment of AI in real-world team settings.
arxiv情報
著者 | Qiliang Chen,Alireza,Ilami,Nunzio Lore,Babak Heydari |
発行日 | 2024-09-16 15:15:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google