要約
畳み込みニューラル ネットワーク (CNN) は、階層構造を学習し、オブジェクトの検出器と、より深い層内の意味概念を自然に開発する能力で知られています。
アクティベーション マップ (AM) は、多くの Explainable AI (XAI) 手法にとって重要なこれらの顕著性領域を明らかにします。
ただし、特徴の帰属を目的として CNN 内の生の AM を直接利用することについては、文献ではまだ十分に調査されていません。
この研究では、ラベルに依存せずに機能の帰属に生の AM を利用する合理化されたアプローチである、ラベルフリー アクティベーション マップ (LaFAM) を導入することにより、クラス アクティベーション マップ (CAM) メソッドが改訂されています。
LaFAM は、従来の CAM 手法に代わる効率的な方法を提供し、教師あり学習シナリオでの適用性を維持しながら、自己教師あり学習の顕著性マップ生成において特に有効であることを実証します。
要約(オリジナル)
Convolutional Neural Networks (CNNs) are known for their ability to learn hierarchical structures, naturally developing detectors for objects, and semantic concepts within their deeper layers. Activation maps (AMs) reveal these saliency regions, which are crucial for many Explainable AI (XAI) methods. However, the direct exploitation of raw AMs in CNNs for feature attribution remains underexplored in literature. This work revises Class Activation Map (CAM) methods by introducing the Label-free Activation Map (LaFAM), a streamlined approach utilizing raw AMs for feature attribution without reliance on labels. LaFAM presents an efficient alternative to conventional CAM methods, demonstrating particular effectiveness in saliency map generation for self-supervised learning while maintaining applicability in supervised learning scenarios.
arxiv情報
著者 | Aray Karjauv,Sahin Albayrak |
発行日 | 2024-07-09 09:33:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google