要約
生成人工知能は、日常的なシナリオから一か八かのシナリオに至るまで、意思決定プロセスに革命を起こす大きな可能性を秘めています。
ただし、多くの意思決定には社会的な影響が伴うため、AI が意思決定の信頼できるアシスタントとなるためには、自己の利益と他者の利益の間のバランスを把握できることが重要です。
私たちは、12 か国の人間参加者による 108 回の実験を通じて、独裁者ゲームの決定を予測する 3 つの最先端のチャットボットの能力を調査しました。
GPT-4 (Bard や Bing ではない) だけが定性的な行動パターンを正しく捉えており、利己的、不平等回避、完全な利他的という 3 つの主要な行動クラスを識別していることがわかりました。
それにもかかわらず、GPT-4 は利他的な行動を過大評価する一方で、一貫して利己性と不平等回避を過小評価しています。
このバイアスは、AI 開発者とユーザーに重大な影響を及ぼします。
要約(オリジナル)
Generative artificial intelligence holds enormous potential to revolutionize decision-making processes, from everyday to high-stake scenarios. However, as many decisions carry social implications, for AI to be a reliable assistant for decision-making it is crucial that it is able to capture the balance between self-interest and the interest of others. We investigate the ability of three of the most advanced chatbots to predict dictator game decisions across 108 experiments with human participants from 12 countries. We find that only GPT-4 (not Bard nor Bing) correctly captures qualitative behavioral patterns, identifying three major classes of behavior: self-interested, inequity-averse, and fully altruistic. Nonetheless, GPT-4 consistently underestimates self-interest and inequity-aversion, while overestimating altruistic behavior. This bias has significant implications for AI developers and users.
arxiv情報
著者 | Valerio Capraro,Roberto Di Paolo,Veronica Pizziol |
発行日 | 2023-11-02 15:05:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google