Towards Machines that Trust: AI Agents Learn to Trust in the Trust Game

要約

人間の道徳の基礎であると広く考えられている信頼は、人間の社会的相互作用の多くの側面を形成します。
この研究では、行動科学および脳科学における信頼を研究するための標準的なタスクである $\textit{信頼ゲーム}$ の理論的分析と、分析を裏付けるシミュレーション結果を紹介します。
具体的には、強化学習 (RL) を活用して AI エージェントをトレーニングし、このタスクのさまざまなパラメーター化の下で学習の信頼性を体系的に調査します。
提示されたシミュレーション結果によって裏付けられた私たちの理論的分析は、信頼ゲームにおける信頼の出現に対する数学的基礎を提供します。

要約(オリジナル)

Widely considered a cornerstone of human morality, trust shapes many aspects of human social interactions. In this work, we present a theoretical analysis of the $\textit{trust game}$, the canonical task for studying trust in behavioral and brain sciences, along with simulation results supporting our analysis. Specifically, leveraging reinforcement learning (RL) to train our AI agents, we systematically investigate learning trust under various parameterizations of this task. Our theoretical analysis, corroborated by the simulations results presented, provides a mathematical basis for the emergence of trust in the trust game.

arxiv情報

著者 Ardavan S. Nobandegani,Irina Rish,Thomas R. Shultz
発行日 2023-12-20 09:32:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, q-bio.NC パーマリンク