Controllable Complementarity: Subjective Preferences in Human-AI Collaboration

要約

人間と協力の研究は、多くの場合、客観的なパフォーマンスを優先します。
ただし、人間の補完性と人間の経験を改善するには、人間の主観的な好みを理解することが不可欠です。
AIの動作に対する明示的な制御を可能にする強化学習アルゴリズムであるBehavior Shaping(BS)を使用して、AIパートナーと共有ワークスペースタスクでの制御性に対する人間の好みを調査します。
ある実験では、コントロールが隠されている場合、自己プレイポリシーに関連する効果的なAIポリシーを作成する際のBSの堅牢性を検証します。
別の実験では、人間のコントロールを可能にし、参加者がAIパートナーがAIの行動を直接決定できる場合、より効果的で楽しいと認識していることを示します。
私たちの調査結果は、タスクのパフォーマンスと主観的な人間の好みの両方を優先するAIを設計する必要性を強調しています。
AIの動作を人間の好みに合わせて調整することにより、客観的な結果を超えて主観的な好みを含める方法を人間の補完性がどのように拡張できるかを示します。

要約(オリジナル)

Research on human-AI collaboration often prioritizes objective performance. However, understanding human subjective preferences is essential to improving human-AI complementarity and human experiences. We investigate human preferences for controllability in a shared workspace task with AI partners using Behavior Shaping (BS), a reinforcement learning algorithm that allows humans explicit control over AI behavior. In one experiment, we validate the robustness of BS in producing effective AI policies relative to self-play policies, when controls are hidden. In another experiment, we enable human control, showing that participants perceive AI partners as more effective and enjoyable when they can directly dictate AI behavior. Our findings highlight the need to design AI that prioritizes both task performance and subjective human preferences. By aligning AI behavior with human preferences, we demonstrate how human-AI complementarity can extend beyond objective outcomes to include subjective preferences.

arxiv情報

著者 Chase McDonald,Cleotilde Gonzalez
発行日 2025-03-07 14:27:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.MA パーマリンク