Learning Bottleneck Concepts in Image Classification

要約

タイトル:画像分類における bottleneck 概念の学習
要約:
– 深層ニューラルネットワークの振る舞いを解釈し説明することは多くのタスクにおいて重要である。
– 説明可能なAIは、主に各ピクセルの決定に対する関連性を提供することによって、この課題に対処する方法を提供する。しかし、このような説明の解釈には専門知識が必要な場合がある。
– 最近の解釈性の試みの一部は、より高次元な関係を持つ概念ベースのフレームワークを採用している。
– 本研究では、ボトルネック概念学習器(BotCL)を提案する。BotCLは、明示的な概念の教示なしに、ターゲットタスクのトレーニングを介して学習した概念の有無で画像を表す。自己教示と特別な正則化を使用して、学習した概念が人間に理解可能になるようにする。
– いくつかの画像分類タスクをテストベッドとして使用し、BotCLのポテンシャルを実証する。
– コードは https://github.com/wbw520/BotCL にて、簡単なデモは https://botcl.liangzhili.com/ にて利用可能。

要約(オリジナル)

Interpreting and explaining the behavior of deep neural networks is critical for many tasks. Explainable AI provides a way to address this challenge, mostly by providing per-pixel relevance to the decision. Yet, interpreting such explanations may require expert knowledge. Some recent attempts toward interpretability adopt a concept-based framework, giving a higher-level relationship between some concepts and model decisions. This paper proposes Bottleneck Concept Learner (BotCL), which represents an image solely by the presence/absence of concepts learned through training over the target task without explicit supervision over the concepts. It uses self-supervision and tailored regularizers so that learned concepts can be human-understandable. Using some image classification tasks as our testbed, we demonstrate BotCL’s potential to rebuild neural networks for better interpretability. Code is available at https://github.com/wbw520/BotCL and a simple demo is available at https://botcl.liangzhili.com/.

arxiv情報

著者 Bowen Wang,Liangzhi Li,Yuta Nakashima,Hajime Nagahara
発行日 2023-04-20 07:32:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク