要約
最新の深層学習モデルは、多くの場合、無関係な領域に焦点を当てて予測を行うため、パフォーマンスに偏りが生じ、一般化が制限されます。
モデルの注意を修正することを目的とした既存の方法では、無関係な領域の明示的なラベルまたは複雑なピクセル単位のグラウンド トゥルース アテンション マップが必要です。
私たちは CRAYON (Yes または No の注釈を使用した推論の修正) を紹介し、単純な Yes/No の注釈を使用してモデルの注意を修正するための効果的でスケーラブルで実用的なソリューションを提供します。
CRAYON は、古典的および現代的なモデル解釈技術を利用して、モデル推論を特定し、導くことができます。CRAYON-ATTENTION は、顕著性マップに基づく古典的な解釈を指示して、関連する画像領域に焦点を当てる一方、CRAYON-PRUNING は、最新の概念ベースの方法によって特定された無関係なニューロンを削除して、その影響を軽減します。
。
定量的評価と人的評価の両方を使用した広範な実験を通じて、モデルの注意を洗練する際の CRAYON の有効性、拡張性、実用性を示します。
CRAYON は最先端のパフォーマンスを実現し、3 つのベンチマーク データセットにわたる 12 のメソッドを上回り、より複雑なアノテーションを必要とするアプローチを上回ります。
要約(オリジナル)
Modern deep learning models often make predictions by focusing on irrelevant areas, leading to biased performance and limited generalization. Existing methods aimed at rectifying model attention require explicit labels for irrelevant areas or complex pixel-wise ground truth attention maps. We present CRAYON (Correcting Reasoning with Annotations of Yes Or No), offering effective, scalable, and practical solutions to rectify model attention using simple yes-no annotations. CRAYON empowers classical and modern model interpretation techniques to identify and guide model reasoning: CRAYON-ATTENTION directs classic interpretations based on saliency maps to focus on relevant image regions, while CRAYON-PRUNING removes irrelevant neurons identified by modern concept-based methods to mitigate their influence. Through extensive experiments with both quantitative and human evaluation, we showcase CRAYON’s effectiveness, scalability, and practicality in refining model attention. CRAYON achieves state-of-the-art performance, outperforming 12 methods across 3 benchmark datasets, surpassing approaches that require more complex annotations.
arxiv情報
著者 | Seongmin Lee,Ali Payani,Duen Horng,Chau |
発行日 | 2024-10-29 17:53:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google