要約
ビジョン トランスフォーマー (ViT) は、特に大規模な言語モデルと共同トレーニングされ、堅牢なビジョン基盤モデルとして機能する能力において、重要な焦点分野として浮上しています。
しかし、ViT の信頼できる説明方法の開発は、特に ViT 予測の事後解釈の文脈において遅れています。
特徴属性や概念モデルなどの既存のサブ画像選択アプローチは、この点で不十分です。
この論文は、ViT を説明するための 5 つの要望 (忠実性、安定性、希薄性、マルチレベル構造、倹約性) を提案し、これらの基準を包括的に満たすには現在の方法が不十分であることを実証します。
我々は、ProbAbilistic Concept Explainers (PACE) と呼ばれる変分ベイジアン説明フレームワークを導入します。これは、パッチ埋め込みの分布をモデル化して、信頼できるポストホックな概念的説明を提供します。
私たちの定性分析は、パッチレベルの概念の分布を明らかにし、パッチ埋め込みと ViT の予測の結合分布をモデル化することで ViT の有効性を解明します。
さらに、これらのパッチレベルの説明は、画像レベルとデータセットレベルの説明の間のギャップを埋めるため、PACE のマルチレベル構造が完成します。
合成データセットと現実世界のデータセットの両方に対する広範な実験を通じて、定義された要求の点で PACE が最先端の手法を上回ることを実証しました。
要約(オリジナル)
Vision transformers (ViTs) have emerged as a significant area of focus, particularly for their capacity to be jointly trained with large language models and to serve as robust vision foundation models. Yet, the development of trustworthy explanation methods for ViTs has lagged, particularly in the context of post-hoc interpretations of ViT predictions. Existing sub-image selection approaches, such as feature-attribution and conceptual models, fall short in this regard. This paper proposes five desiderata for explaining ViTs — faithfulness, stability, sparsity, multi-level structure, and parsimony — and demonstrates the inadequacy of current methods in meeting these criteria comprehensively. We introduce a variational Bayesian explanation framework, dubbed ProbAbilistic Concept Explainers (PACE), which models the distributions of patch embeddings to provide trustworthy post-hoc conceptual explanations. Our qualitative analysis reveals the distributions of patch-level concepts, elucidating the effectiveness of ViTs by modeling the joint distribution of patch embeddings and ViT’s predictions. Moreover, these patch-level explanations bridge the gap between image-level and dataset-level explanations, thus completing the multi-level structure of PACE. Through extensive experiments on both synthetic and real-world datasets, we demonstrate that PACE surpasses state-of-the-art methods in terms of the defined desiderata.
arxiv情報
著者 | Hengyi Wang,Shiwei Tan,Hao Wang |
発行日 | 2024-06-19 02:21:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google