Objective Metrics for Human-Subjects Evaluation in Explainable Reinforcement Learning

要約

説明は、基本的に人間のプロセスです。
説明の目標と聴衆を理解することは不可欠ですが、説明可能な強化学習(XRL)に関する既存の作業は、日常的に評価で人間に相談しません。
彼らがそうするときでさえ、彼らは、自信や理解などの主観的な指標に日常的に頼ります。彼らは、特定の問題に対する実際的な有効性ではなく、ユーザーの意見を研究者に知らせることができます。
このホワイトペーパーでは、研究者に、観察可能で実用的な行動に基づいた説明評価のために客観的な人間の指標を使用して、より再現性があり、同等の認識的に根拠のある研究を構築することを求めています。
この目的のために、私たちは、いくつかの客観的評価方法論をキュレートし、説明し、比較して、エージェントの行動をデバッグするために説明を適用し、人間エージェントチームをサポートし、新しいグリッドベースの環境を使用して提案された方法を説明します。
主観的で客観的なメトリックがどのように互いに補完し、全体的な検証を提供し、テストのために標準化されたベンチマークを利用して、研究間のより大きな比較を可能にするために将来の仕事がどのように必要かを議論します。

要約(オリジナル)

Explanation is a fundamentally human process. Understanding the goal and audience of the explanation is vital, yet existing work on explainable reinforcement learning (XRL) routinely does not consult humans in their evaluations. Even when they do, they routinely resort to subjective metrics, such as confidence or understanding, that can only inform researchers of users’ opinions, not their practical effectiveness for a given problem. This paper calls on researchers to use objective human metrics for explanation evaluations based on observable and actionable behaviour to build more reproducible, comparable, and epistemically grounded research. To this end, we curate, describe, and compare several objective evaluation methodologies for applying explanations to debugging agent behaviour and supporting human-agent teaming, illustrating our proposed methods using a novel grid-based environment. We discuss how subjective and objective metrics complement each other to provide holistic validation and how future work needs to utilise standardised benchmarks for testing to enable greater comparisons between research.

arxiv情報

著者 Balint Gyevnar,Mark Towers
発行日 2025-01-31 16:12:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.RO パーマリンク