Compensating for Sensing Failures via Delegation in Human-AI Hybrid Systems

要約

自律的な行動や人間の活動の拡張が可能なインテリジェント システムの普及が進んでいることを考えると、人間、自律システム、またはその両方が、いくつかの要因の 1 つ (知覚など) の結果として障害を示す可能性があるシナリオを考慮することが重要です。
人間または自律エージェントの障害は、単純にパフォーマンス レベルの低下につながる可能性があります。または、障害が怪我や死亡などの深刻な事態につながる可能性もあります。
このトピックでは、管理エージェントがいつ委任割り当てを実行するか、および人間または自律システムが制御を取得する必要があるかどうかを特定する任務を負う、ハイブリッドの人間と AI のチーム化のケースを検討します。
このコンテキストでは、マネージャーは、センシング機能と考えられる欠陥の結果として、(人間、自律) エージェントのいずれかが失敗する可能性に基づいて、最善のアクションを推定します。
環境コンテキストがどのようにセンシングの欠陥に寄与するか、または悪化させるかをモデル化します。
これらのコンテキストは、マネージャーが能力を意思決定の適合性に帰することを学ばなければならない場合を提供します。
そのため、強化学習 (RL) マネージャーがコンテキストと委任の関連付けを修正し、エージェントのハイブリッド チームが単独で動作するエージェントの動作よりも優れたパフォーマンスを発揮できるようにする方法を示します。

要約(オリジナル)

Given an increasing prevalence of intelligent systems capable of autonomous actions or augmenting human activities, it is important to consider scenarios in which the human, autonomous system, or both can exhibit failures as a result of one of several contributing factors (e.g. perception). Failures for either humans or autonomous agents can lead to simply a reduced performance level, or a failure can lead to something as severe as injury or death. For our topic, we consider the hybrid human-AI teaming case where a managing agent is tasked with identifying when to perform a delegation assignment and whether the human or autonomous system should gain control. In this context, the manager will estimate its best action based on the likelihood of either (human, autonomous) agent failure as a result of their sensing capabilities and possible deficiencies. We model how the environmental context can contribute to, or exacerbate, the sensing deficiencies. These contexts provide cases where the manager must learn to attribute capabilities to suitability for decision-making. As such, we demonstrate how a Reinforcement Learning (RL) manager can correct the context-delegation association and assist the hybrid team of agents in outperforming the behavior of any agent working in isolation.

arxiv情報

著者 Andrew Fuchs,Andrea Passarella,Marco Conti
発行日 2023-03-17 14:28:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク