要約
画像分類における深い学習の台頭は、前例のない精度をもたらしましたが、重要な問題、つまりモデルによる「ショートカット」の使用も強調しました。
このようなショートカットは、新しいデータに一般化できないトレーニングデータからの学習しやすいパターンです。
例には、馬を認識するための著作権透かしの使用、ハスキーを認識する雪のような背景、または悪性皮膚病変を検出するインクマーキングが含まれます。
説明可能なAI(XAI)コミュニティは、インスタンスレベルの説明を使用して外部データのないショートカットを検出することを提案していますが、これにはそのようなショートカットの存在を確認するために多くの説明を調べる必要があり、労働集約的なプロセスになります。
これらの課題に対処するために、反事実的な周波数(COF)テーブルを導入します。これは、インスタンスベースの説明をグローバルな洞察に集約し、ショートカットを公開する新しいアプローチです。
集約は、説明でいくつかの意味概念を使用する必要性を意味します。これは、画像のセグメントにラベルを付けることで解決します。
いくつかのデータセットにわたってCOFテーブルのユーティリティを実証し、それらから学んだショートカットを明らかにします。
要約(オリジナル)
The rise of deep learning in image classification has brought unprecedented accuracy but also highlighted a key issue: the use of ‘shortcuts’ by models. Such shortcuts are easy-to-learn patterns from the training data that fail to generalise to new data. Examples include the use of a copyright watermark to recognise horses, snowy background to recognise huskies, or ink markings to detect malignant skin lesions. The explainable AI (XAI) community has suggested using instance-level explanations to detect shortcuts without external data, but this requires the examination of many explanations to confirm the presence of such shortcuts, making it a labour-intensive process. To address these challenges, we introduce Counterfactual Frequency (CoF) tables, a novel approach that aggregates instance-based explanations into global insights, and exposes shortcuts. The aggregation implies the need for some semantic concepts to be used in the explanations, which we solve by labelling the segments of an image. We demonstrate the utility of CoF tables across several datasets, revealing the shortcuts learned from them.
arxiv情報
著者 | James Hinns,David Martens |
発行日 | 2025-01-29 11:33:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google