要約
精度と解釈可能性のトレードオフは、機械学習(ML)の挑戦でした。
この緊張は、信頼できる解釈可能性のためにMLアルゴリズムを再設計することを目的としているが、プロセスの正確さを犠牲にすることを目的とした、新たに解釈可能な設計方法で特に重要です。
この論文では、概念表現における逸脱の影響を調査することにより、このギャップに対処します。これは、解釈可能なモデルオン予測パフォーマンスの重要なコンポーネントであり、これらの効果を緩和するための新しいフレームワークを提案します。
フレームワークは、解釈可能性を維持する制約の下で概念の埋め込みを最適化するという原則に基づいて構築されます。
生成モデルをテストベッドとして使用して、私たちのアルゴリズムがゼロ損失を達成し、結果のモデルの解釈性を徐々に向上させることを厳密に証明します。
さらに、さまざまなベンチマークにわたる画像分類タスクの説明可能な予測を生成する際に、提案されたフレームワークの実用的なパフォーマンスを評価します。
既存の説明可能な方法と比較して、当社のアプローチは、さまざまな大規模なベンチマークでモデルの解釈可能性を維持しながら、予測の精度を向上させるだけでなく、計算コストが大幅に低いためにこれを達成します。
要約(オリジナル)
The trade-off between accuracy and interpretability has long been a challenge in machine learning (ML). This tension is particularly significant for emerging interpretable-by-design methods, which aim to redesign ML algorithms for trustworthy interpretability but often sacrifice accuracy in the process. In this paper, we address this gap by investigating the impact of deviations in concept representations-an essential component of interpretable models-on prediction performance and propose a novel framework to mitigate these effects. The framework builds on the principle of optimizing concept embeddings under constraints that preserve interpretability. Using a generative model as a test-bed, we rigorously prove that our algorithm achieves zero loss while progressively enhancing the interpretability of the resulting model. Additionally, we evaluate the practical performance of our proposed framework in generating explainable predictions for image classification tasks across various benchmarks. Compared to existing explainable methods, our approach not only improves prediction accuracy while preserving model interpretability across various large-scale benchmarks but also achieves this with significantly lower computational cost.
arxiv情報
著者 | Geyu Liang,Senne Michielssen,Salar Fattahi |
発行日 | 2025-02-10 18:53:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google