要約
大規模言語モデル (LLM) を活用することで、AI エージェントは人間による多くのタスクを実行できるようになりました。
ビッグ 5 の性格の最も標準的な定義を使用して、公平性とリスクの概念を測定する方法論的な課題だけでなく、ゲーム理論の枠組み内で交渉する LLM の能力を測定します。
単一争点交渉と複数争点交渉の両方のシミュレーション (n=1,500) では、非対称な争点評価による領域の複雑さの増加により、合意率は向上しますが、積極的な交渉による余剰は減少することが明らかになりました。
勾配ブースト回帰とシャプレー説明者を通じて、高い率直さ、誠実さ、神経症傾向が公正な傾向と関連していることがわかります。
低い同調性と低い開放性は、合理的な傾向と関連しています。
誠実さの低さは毒性の高さと関連しています。
これらの結果は、LLM には公正な動作をデフォルトとするガードレールが組み込まれている可能性があるが、好意的な敵対者を利用するために「脱獄」できる可能性があることを示しています。
また、交渉ボットの設計方法に関する実用的な洞察と、ゲーム理論と計算社会科学に基づいた交渉行動を評価するフレームワークも提供します。
要約(オリジナル)
Powered by large language models (LLMs), AI agents have become capable of many human tasks. Using the most canonical definitions of the Big Five personality, we measure the ability of LLMs to negotiate within a game-theoretical framework, as well as methodological challenges to measuring notions of fairness and risk. Simulations (n=1,500) for both single-issue and multi-issue negotiation reveal increase in domain complexity with asymmetric issue valuations improve agreement rates but decrease surplus from aggressive negotiation. Through gradient-boosted regression and Shapley explainers, we find high openness, conscientiousness, and neuroticism are associated with fair tendencies; low agreeableness and low openness are associated with rational tendencies. Low conscientiousness is associated with high toxicity. These results indicate that LLMs may have built-in guardrails that default to fair behavior, but can be ‘jail broken’ to exploit agreeable opponents. We also offer pragmatic insight in how negotiation bots can be designed, and a framework of assessing negotiation behavior based on game theory and computational social science.
arxiv情報
著者 | Sean Noh,Ho-Chun Herbert Chang |
発行日 | 2024-05-09 01:09:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google