Overcoming the Machine Penalty with Imperfectly Fair AI Agents

要約

急速な技術の進歩にもかかわらず、効果的な人間マシンの協力は依然として大きな課題です。
人間は、機械のペナルティとして知られる現象である仲間の人間よりも機械と協力する傾向があります。
ここでは、大規模な言語モデルを搭載した人工知能(AI)エージェントが、コミュニケーションで社会的ジレンマゲームでこのペナルティを克服できることを示しています。
1,152人の参加者との事前に登録された実験では、利己的、協力的、公正な3つの異なるペルソナを示すAIエージェントを展開します。
ただし、公正なエージェントのみが、人間の相互作用に匹敵する料金で人間の協力を引き出します。
分析により、人間の参加者と同様に、公正なエージェントが試合前の協力の約束を時々破ることがあるが、それでも社会的規範として効果的に協力を確立することが明らかになった。
これらの結果は、利他的なアシスタントまたは合理的な俳優としての従来の機械の知恵に挑戦します。
代わりに、私たちの研究は、人間の社会的行動の微妙な複雑さを反映したAIエージェントの重要性を強調しています。

要約(オリジナル)

Despite rapid technological progress, effective human-machine cooperation remains a significant challenge. Humans tend to cooperate less with machines than with fellow humans, a phenomenon known as the machine penalty. Here, we show that artificial intelligence (AI) agents powered by large language models can overcome this penalty in social dilemma games with communication. In a pre-registered experiment with 1,152 participants, we deploy AI agents exhibiting three distinct personas: selfish, cooperative, and fair. However, only fair agents elicit human cooperation at rates comparable to human-human interactions. Analysis reveals that fair agents, similar to human participants, occasionally break pre-game cooperation promises, but nonetheless effectively establish cooperation as a social norm. These results challenge the conventional wisdom of machines as altruistic assistants or rational actors. Instead, our study highlights the importance of AI agents reflecting the nuanced complexity of human social behaviors — imperfect yet driven by deeper social cognitive processes.

arxiv情報

著者 Zhen Wang,Ruiqi Song,Chen Shen,Shiya Yin,Zhao Song,Balaraju Battu,Lei Shi,Danyang Jia,Talal Rahwan,Shuyue Hu
発行日 2025-05-28 16:01:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GT, cs.HC, econ.GN, q-fin.EC パーマリンク