Exposing Image Classifier Shortcuts with Counterfactual Frequency (CoF) Tables

要約

画像分類におけるディープラーニングの台頭により、前例のない精度がもたらされましたが、モデルによる「ショートカット」の使用という重要な問題も浮き彫りになりました。
このようなショートカットは、新しいデータに一般化できないトレーニング データから簡単に学習できるパターンです。
例としては、馬を認識するための著作権透かしの使用、ハスキー犬を認識するための雪の背景、悪性皮膚病変を検出するためのインク マーキングの使用などが挙げられます。
Explainable AI (XAI) コミュニティは、インスタンス レベルの説明を使用して、外部データなしでショートカットを検出することを提案していますが、これには、そのようなショートカットの存在を確認するために多くの説明を調べる必要があり、労働集約的なプロセスになります。
これらの課題に対処するために、私たちは、インスタンスベースの説明をグローバルな洞察に集約し、ショートカットを公開する新しいアプローチである反事実頻度 (CoF) テーブルを導入します。
集約は、説明で使用されるいくつかの意味概念の必要性を暗示しますが、これは画像のセグメントにラベルを付けることで解決します。
いくつかのデータセットにわたる CoF テーブルの有用性を実証し、そこから学んだショートカットを明らかにします。

要約(オリジナル)

The rise of deep learning in image classification has brought unprecedented accuracy but also highlighted a key issue: the use of ‘shortcuts’ by models. Such shortcuts are easy-to-learn patterns from the training data that fail to generalise to new data. Examples include the use of a copyright watermark to recognise horses, snowy background to recognise huskies, or ink markings to detect malignant skin lesions. The explainable AI (XAI) community has suggested using instance-level explanations to detect shortcuts without external data, but this requires the examination of many explanations to confirm the presence of such shortcuts, making it a labour-intensive process. To address these challenges, we introduce Counterfactual Frequency (CoF) tables, a novel approach that aggregates instance-based explanations into global insights, and exposes shortcuts. The aggregation implies the need for some semantic concepts to be used in the explanations, which we solve by labelling the segments of an image. We demonstrate the utility of CoF tables across several datasets, revealing the shortcuts learned from them.

arxiv情報

著者 James Hinns,David Martens
発行日 2024-05-24 15:58:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク