Label-Free Concept Bottleneck Models

要約

概念ボトルネックモデル(CBM)は、隠れ層のニューロンを人間が理解しやすい概念に対応させることで、より解釈しやすいニューラルネットワークを作成する方法としてよく知られています。しかし、既存のCBMとその亜種には2つの決定的な限界があります。第1に、あらかじめ定義された概念ごとにラベル付きデータを収集する必要があり、時間と労力がかかること、第2に、CBMの精度は、特により複雑なデータセットにおいて、標準ニューラルネットワークよりも著しく低いことがよくあります。この性能の低さは、実世界の実用的なアプリケーションにCBMを採用する際の障壁となる。このような課題から、我々はラベルフリーCBMを提案する。これは、ラベル付き概念データなしに、あらゆるニューラルネットワークを解釈可能なCBMに変換し、高い精度を維持する新しいフレームワークである。ラベルフリーCBMは、スケーラブルで、ImageNetに対応した最初のCBMであり、効率的で、非常に大きなデータセットでも数時間でCBMを作成でき、自動化されており、新しいデータセットに対して最小限の人手で訓練することができます。我々のコードは、https://github.com/Trustworthy-ML-Lab/Label-free-CBM で利用可能です。最後に、付録Bでは、本手法の解釈可能性について大規模なユーザ評価を実施しました。

要約(オリジナル)

Concept bottleneck models (CBM) are a popular way of creating more interpretable neural networks by having hidden layer neurons correspond to human-understandable concepts. However, existing CBMs and their variants have two crucial limitations: first, they need to collect labeled data for each of the predefined concepts, which is time consuming and labor intensive; second, the accuracy of a CBM is often significantly lower than that of a standard neural network, especially on more complex datasets. This poor performance creates a barrier for adopting CBMs in practical real world applications. Motivated by these challenges, we propose Label-free CBM which is a novel framework to transform any neural network into an interpretable CBM without labeled concept data, while retaining a high accuracy. Our Label-free CBM has many advantages, it is: scalable – we present the first CBM scaled to ImageNet, efficient – creating a CBM takes only a few hours even for very large datasets, and automated – training it for a new dataset requires minimal human effort. Our code is available at https://github.com/Trustworthy-ML-Lab/Label-free-CBM. Finally, in Appendix B we conduct a large scale user evaluation of the interpretability of our method.

arxiv情報

著者 Tuomas Oikarinen,Subhro Das,Lam M. Nguyen,Tsui-Wei Weng
発行日 2023-06-05 17:33:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク