Interpreting CLIP with Sparse Linear Concept Embeddings (SpLiCE)

要約

CLIPエンベッディングは、様々なマルチモーダルアプリケーションにおいて顕著な性能を示してきた。しかしながら、これらの高次元で高密度のベクトル表現は容易に解釈可能ではなく、CLIPの豊かな構造の理解や、透明性を必要とする下流のアプリケーションでの利用を制限している。本研究では、CLIPの潜在空間の意味構造を活用することで、解釈を可能にし、意味概念への表現の分解を可能にすることを示す。我々はこの問題をスパースリカバリーの一つとして定式化し、CLIP表現を人間が解釈可能な概念のスパース線形結合に変換するための新しい手法、スパース線形概念埋め込みを提案する。これまでの研究とは異なり、SPLiCEはタスクにとらわれず、訓練なしで従来の密なCLIP表現を説明し、さらには置き換えるために使用することができる。また、スプリアス相関の検出やモデルの編集など、SPLiCE表現の重要な使用例を示す。

要約(オリジナル)

CLIP embeddings have demonstrated remarkable performance across a wide range of multimodal applications. However, these high-dimensional, dense vector representations are not easily interpretable, limiting our understanding of the rich structure of CLIP and its use in downstream applications that require transparency. In this work, we show that the semantic structure of CLIP’s latent space can be leveraged to provide interpretability, allowing for the decomposition of representations into semantic concepts. We formulate this problem as one of sparse recovery and propose a novel method, Sparse Linear Concept Embeddings, for transforming CLIP representations into sparse linear combinations of human-interpretable concepts. Distinct from previous work, SpLiCE is task-agnostic and can be used, without training, to explain and even replace traditional dense CLIP representations, maintaining high downstream performance while significantly improving their interpretability. We also demonstrate significant use cases of SpLiCE representations including detecting spurious correlations and model editing.

arxiv情報

著者 Usha Bhalla,Alex Oesterling,Suraj Srinivas,Flavio P. Calmon,Himabindu Lakkaraju
発行日 2024-11-04 17:28:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク