要約
VisionLogicと呼ばれる一般的なフレームワークを提案して、画像分類タスクに焦点を当てて、Deep Visionモデルから解釈可能なロジックルールを抽出します。
完全に接続されたレイヤーを出力ヘッドとして使用するディープビジョンモデルを考えると、VisionLogicは最後のレイヤーのニューロンを述語に変換し、それらを因果検証を使用して視力概念に根拠にします。
このようにして、VisionLogicは、ロジックルールの形式での単一画像の局所的な説明と特定のクラスのグローバルな説明を提供できます。
顕著性マップなどの既存の解釈可能な視覚化ツールと比較して、VisionLogicは、因果的説明の欠如、視覚化の過度の影響、解釈の曖昧さなど、いくつかの重要な課題に対処します。
VisionLogicは、述語によってエンコードされた視覚概念の研究、特に摂動の下でどのように振る舞うか、つまり隠されたセマンティクスの分野で露出していない領域の研究も促進します。
モデルによって学んだ視覚的概念に対するより良い視覚的説明と洞察を提供することとは別に、VisionLogicが解釈可能かつ透明な方法でニューラルネットワークの識別力のほとんどを保持していることを示します。
複雑なモデルの行動と人間に理解しやすい説明との橋渡しとして、実際のアプリケーションに信頼できる実用的な洞察を提供します。
要約(オリジナル)
We propose a general framework called VisionLogic to extract interpretable logic rules from deep vision models, with a focus on image classification tasks. Given any deep vision model that uses a fully connected layer as the output head, VisionLogic transforms neurons in the last layer into predicates and grounds them into vision concepts using causal validation. In this way, VisionLogic can provide local explanations for single images and global explanations for specific classes in the form of logic rules. Compared to existing interpretable visualization tools such as saliency maps, VisionLogic addresses several key challenges, including the lack of causal explanations, overconfidence in visualizations, and ambiguity in interpretation. VisionLogic also facilitates the study of visual concepts encoded by predicates, particularly how they behave under perturbation — an area that remains underexplored in the field of hidden semantics. Apart from providing better visual explanations and insights into the visual concepts learned by the model, we show that VisionLogic retains most of the neural network’s discriminative power in an interpretable and transparent manner. We envision it as a bridge between complex model behavior and human-understandable explanations, providing trustworthy and actionable insights for real-world applications.
arxiv情報
著者 | Chuqin Geng,Yuhe Jiang,Ziyu Zhao,Haolin Ye,Zhaoyue Wang,Xujie Si |
発行日 | 2025-03-13 17:04:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google