Are Good Explainers Secretly Human-in-the-Loop Active Learners?

要約

Explainable AI (XAI) 技術は、ここ数年でさまざまなユースケースで普及してきました。
ここでは、追加のトレーニング データを収集するためのモデル予測の研究での使用を検討します。
これは、クエリ戦略に人間参加型が関与するアクティブ ラーニングと同等であると私たちは主張します。
人間の役割を数学的に近似し、エンドツーエンドのワークフローの一般的な形式化を示します。
これにより、ワークフローの拡張を可能にしながら、この使用法を標準のアクティブ ラーニング アルゴリズムと厳密に比較することができます。
追加の利点は、高価なユーザー調査を実施する代わりに、シミュレーションによってその有用性を評価できることです。
また、初期の有望な結果もいくつか紹介します。

要約(オリジナル)

Explainable AI (XAI) techniques have become popular for multiple use-cases in the past few years. Here we consider its use in studying model predictions to gather additional training data. We argue that this is equivalent to Active Learning, where the query strategy involves a human-in-the-loop. We provide a mathematical approximation for the role of the human, and present a general formalization of the end-to-end workflow. This enables us to rigorously compare this use with standard Active Learning algorithms, while allowing for extensions to the workflow. An added benefit is that their utility can be assessed via simulation instead of conducting expensive user-studies. We also present some initial promising results.

arxiv情報

著者 Emma Thuong Nguyen,Abhishek Ghose
発行日 2024-04-16 16:33:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク