要約
オブジェクト検出器は、自律運転などの安全性クリティカルなリアルタイムアプリケーションで広く使用されています。
説明可能性は、安全性の高いアプリケーションにとって特に重要であり、オブジェクト検出器の多様性としばしば独自の性質により、ブラックボックスの説明ツールが必要です。
ただし、AIモデル向けの既存のブラックボックスの説明可能性ツールは、複数のモデル呼び出しに依存しているため、リアルタイムの使用には非現実的になります。
このホワイトペーパーでは、オブジェクト検出器のリアルタイムブラックボックスの説明可能性のためのアルゴリズムとツールであるIncxを紹介します。
このアルゴリズムは、顕著性マップの線形変換に基づいており、十分な説明を生成します。
自律運転の4つの広く使用されているビデオデータセットでの実装を評価し、Incxの説明が最先端に匹敵し、最先端よりも2桁高速に計算され、リアルタイムで使用可能になることを実証します。
要約(オリジナル)
Object detectors are widely used in safety-critical real-time applications such as autonomous driving. Explainability is especially important for safety-critical applications, and due to the variety of object detectors and their often proprietary nature, black-box explainability tools are needed. However, existing black-box explainability tools for AI models rely on multiple model calls, rendering them impractical for real-time use. In this paper, we introduce IncX, an algorithm and a tool for real-time black-box explainability for object detectors. The algorithm is based on linear transformations of saliency maps, producing sufficient explanations. We evaluate our implementation on four widely used video datasets of autonomous driving and demonstrate that IncX’s explanations are comparable in quality to the state-of-the-art and are computed two orders of magnitude faster than the state-of-the-art, making them usable in real time.
arxiv情報
著者 | Santiago Calderón-Peña,Hana Chockler,David A. Kelly |
発行日 | 2025-03-07 17:38:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google