要約
コンセプトボトルネックモデル(CBMS)は、人間の理解可能な概念を通じて予測を説明することにより解釈可能性を向上させますが、通常、トレーニングとテストデータが同じ分布を共有すると仮定します。
この仮定は、ドメインシフトの下で失敗することが多く、パフォーマンスの低下と一般化の低下につながります。
これらの制限に対処し、CBMSの堅牢性を向上させるために、コンセプトベースの監視されていないドメイン適応(CUDA)フレームワークを提案します。
CUDAは次のように設計されています。(1)敵対的なトレーニングを使用してドメイン全体の概念表現を整列させ、(2)概念分布のマイナーなドメイン固有の違いを可能にするリラクゼーションしきい値を導入し、これらの分布の過剰な構成によるパフォーマンス低下を防ぎます。
理論的保証を備えたドメイン適応(DA)、解釈性の向上、DAの新しいベンチマークの確立。
実験は、私たちのアプローチが、現実世界のデータセットで最先端のCBMおよびDAメソッドを大幅に上回ることを示しています。
要約(オリジナル)
Concept Bottleneck Models (CBMs) enhance interpretability by explaining predictions through human-understandable concepts but typically assume that training and test data share the same distribution. This assumption often fails under domain shifts, leading to degraded performance and poor generalization. To address these limitations and improve the robustness of CBMs, we propose the Concept-based Unsupervised Domain Adaptation (CUDA) framework. CUDA is designed to: (1) align concept representations across domains using adversarial training, (2) introduce a relaxation threshold to allow minor domain-specific differences in concept distributions, thereby preventing performance drop due to over-constraints of these distributions, (3) infer concepts directly in the target domain without requiring labeled concept data, enabling CBMs to adapt to diverse domains, and (4) integrate concept learning into conventional domain adaptation (DA) with theoretical guarantees, improving interpretability and establishing new benchmarks for DA. Experiments demonstrate that our approach significantly outperforms the state-of-the-art CBM and DA methods on real-world datasets.
arxiv情報
著者 | Xinyue Xu,Yueying Hu,Hui Tang,Yi Qin,Lu Mi,Hao Wang,Xiaomeng Li |
発行日 | 2025-05-08 12:52:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google