要約
人工知能 (AI) が日常生活にさらに統合されるにつれて、人間と機械の協力はますます重要になります。
研究によると、人々は人間よりも AI エージェントに協力する意欲が低く、個人的な利益のために AI を悪用しやすいことがわかっています。
これまでの研究では、AI エージェントに人間のような特徴を与えると、AI エージェントに対する人々の協力に影響を与えることが示されていますが、AI に割り当てられた性別の影響についてはまだ解明されていません。
この研究では、人間の協力が、対話する AI エージェントに割り当てられた性別ラベルに基づいてどのように変化するかを調査します。
囚人のジレンマ ゲームでは、402 人の参加者が AI (ボット) または人間としてラベル付けされたパートナーと対話しました。
パートナーには、男性、女性、非バイナリー、または性別中立というラベルも付けられました。
その結果、参加者は人間のAIエージェントよりも女性のラベルを付けられたAIエージェントを搾取し、男性のラベルを付けられたAIエージェントを不信感を抱く傾向があり、これは人間同士の相互作用と同様のジェンダーバイアスを反映していることが明らかになった。
これらの発見は、人間とAIの相互作用におけるジェンダーバイアスの重要性を浮き彫りにしており、将来の政策、対話型AIシステムの設計、およびその使用の規制において考慮する必要がある。
要約(オリジナル)
Cooperation between humans and machines is increasingly vital as artificial intelligence (AI) becomes more integrated into daily life. Research indicates that people are often less willing to cooperate with AI agents than with humans, more readily exploiting AI for personal gain. While prior studies have shown that giving AI agents human-like features influences people’s cooperation with them, the impact of AI’s assigned gender remains underexplored. This study investigates how human cooperation varies based on gender labels assigned to AI agents with which they interact. In the Prisoner’s Dilemma game, 402 participants interacted with partners labelled as AI (bot) or humans. The partners were also labelled male, female, non-binary, or gender-neutral. Results revealed that participants tended to exploit female-labelled and distrust male-labelled AI agents more than their human counterparts, reflecting gender biases similar to those in human-human interactions. These findings highlight the significance of gender biases in human-AI interactions that must be considered in future policy, design of interactive AI systems, and regulation of their use.
arxiv情報
著者 | Sepideh Bazazi,Jurgis Karpus,Taha Yasseri |
発行日 | 2024-12-06 17:46:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google