要約
LLMは、人間や他のエージェントと相互作用するアプリケーションでますます使用されています。
行動ゲーム理論を使用して、LLMの協力と調整行動を研究することを提案します。
さまざまなLLMが、人間のような戦略と実際の人間のプレーヤーを使用して、互いに$ 2 \ Times2 $ 2ゲームを繰り返し繰り返します。
私たちの結果は、LLMSが反復囚のジレンマファミリーのような利己的なゲームで特にうまく機能することを示しています。
しかし、それらは性別の戦いのように、調整を必要とするゲームで最適に行動します。
これらの行動署名は、堅牢性チェック全体で安定していることを確認します。
さらに、相手に関する追加情報を提供し、「ソーシャルチェーン」(SCOT)戦略を使用することにより、GPT-4の動作をどのように変調できるかを示します。
これはまた、人間のプレイヤーとやり取りするときに、より良いスコアとより成功した調整につながります。
これらの結果は、LLMの社会的行動の理解を豊かにし、機械の行動ゲーム理論への道を開いています。
要約(オリジナル)
LLMs are increasingly used in applications where they interact with humans and other agents. We propose to use behavioural game theory to study LLM’s cooperation and coordination behaviour. We let different LLMs play finitely repeated $2\times2$ games with each other, with human-like strategies, and actual human players. Our results show that LLMs perform particularly well at self-interested games like the iterated Prisoner’s Dilemma family. However, they behave sub-optimally in games that require coordination, like the Battle of the Sexes. We verify that these behavioural signatures are stable across robustness checks. We additionally show how GPT-4’s behaviour can be modulated by providing additional information about its opponent and by using a ‘social chain-of-thought’ (SCoT) strategy. This also leads to better scores and more successful coordination when interacting with human players. These results enrich our understanding of LLM’s social behaviour and pave the way for a behavioural game theory for machines.
arxiv情報
著者 | Elif Akata,Lion Schulz,Julian Coda-Forno,Seong Joon Oh,Matthias Bethge,Eric Schulz |
発行日 | 2025-05-07 12:44:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google