要約
大規模な言語モデルベース(LLMベース)エージェントは、非協力的なパーティーを含む設定で一般的になりました。
このような設定では、エージェントの意思決定は、敵からの情報を隠し、協同組合に情報を公開し、他のエージェントの特性を特定するための情報を推測する必要があります。
LLMがこれらの情報制御機能と意思決定機能を持っているかどうかを調査するために、LLMエージェントが言語ベースの隠しアイデンティティゲームであるChameleonをプレイします。
ゲームでは、お互いを知らない非チャメレオンエージェントのグループが、秘密を明らかにすることなくカメレオンエージェントを特定することを目指しています。
このゲームでは、カメレオンと非チャメレオンの両方として、前述の情報制御機能が必要です。
経験的結果は、非チャメレオンLLMエージェントがカメレオンを特定するが、カメレオンから秘密を隠すことができず、彼らの勝利の確率は些細な戦略のレベルとはほど遠いことを示しています。
この動作を正式に説明するために、私たちは、隠蔽から明らかなものまで、非チャメレオンの勝利の確率の境界を提供する、一連の戦略の理論分析を提供します。
さまざまな戦略の経験的結果と理論分析に基づいて、LLMベースの非チャメレオンエージェントが不明なアイデンティティのエージェントに過度の情報を明らかにすると推測します。
私たちの結果は、戦略的相互作用におけるGPT-4、GPT-4O、GEMINI 1.5、Claude 3.5 Sonnetを含む現代のLLMの弱点を示しています。
要約(オリジナル)
Large language model-based (LLM-based) agents have become common in settings that include non-cooperative parties. In such settings, agents’ decision-making needs to conceal information from their adversaries, reveal information to their cooperators, and infer information to identify the other agents’ characteristics. To investigate whether LLMs have these information control and decision-making capabilities, we make LLM agents play the language-based hidden-identity game, The Chameleon. In the game, a group of non-chameleon agents who do not know each other aim to identify the chameleon agent without revealing a secret. The game requires the aforementioned information control capabilities both as a chameleon and a non-chameleon. The empirical results show that while non-chameleon LLM agents identify the chameleon, they fail to conceal the secret from the chameleon, and their winning probability is far from the levels of even trivial strategies. To formally explain this behavior, we give a theoretical analysis for a spectrum of strategies, from concealing to revealing, and provide bounds on the non-chameleons’ winning probability. Based on the empirical results and theoretical analysis of different strategies, we deduce that LLM-based non-chameleon agents reveal excessive information to agents of unknown identities. Our results point to a weakness of contemporary LLMs, including GPT-4, GPT-4o, Gemini 1.5, and Claude 3.5 Sonnet, in strategic interactions.
arxiv情報
著者 | Mustafa O. Karabag,Ufuk Topcu |
発行日 | 2025-01-31 18:53:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google