Selectively Providing Reliance Calibration Cues With Reliance Prediction

要約

意思決定に機械学習を使用する人間とインテリジェント エージェントとの間の効果的なコラボレーションのために、人間はエージェントができることとできないことを理解し、過度の依存/過小依存を回避する必要があります。
この問題の解決策は、人間がエージェントの能力を評価できるように、依存度調整キュー (RCC) を使用したコミュニケーションを通じて人間の依存度を調整することです。
以前の研究では通常、RCC を継続的に提示することで信頼性を調整しようとしましたが、エージェントがいつ RCC を提供すべきかは未解決の問題のままです。
これに答えるために、RCCを選択的に提供する方法であるPred-RCを提案します。
Pred-RC は認知依存モデルを使用して、人間がタスクをエージェントに割り当てるかどうかを予測します。
Pred-RC は、RCC がある場合とない場合の両方の予測結果を比較することで、RCC が人間の依存に与える影響を評価します。
人間と AI のコラボレーション タスクで Pred-RC をテストしたところ、少ない数の RCC で人間の信頼をうまく調整できることがわかりました。

要約(オリジナル)

For effective collaboration between humans and intelligent agents that employ machine learning for decision-making, humans must understand what agents can and cannot do to avoid over/under-reliance. A solution to this problem is adjusting human reliance through communication using reliance calibration cues (RCCs) to help humans assess agents’ capabilities. Previous studies typically attempted to calibrate reliance by continuously presenting RCCs, and when an agent should provide RCCs remains an open question. To answer this, we propose Pred-RC, a method for selectively providing RCCs. Pred-RC uses a cognitive reliance model to predict whether a human will assign a task to an agent. By comparing the prediction results for both cases with and without an RCC, Pred-RC evaluates the influence of the RCC on human reliance. We tested Pred-RC in a human-AI collaboration task and found that it can successfully calibrate human reliance with a reduced number of RCCs.

arxiv情報

著者 Yosuke Fukuchi,Seiji Yamada
発行日 2023-02-20 14:15:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC パーマリンク