Learning to Select Prototypical Parts for Interpretable Sequential Data Modeling

要約

プロトタイプベースの解釈可能性メソッドは、類似性の観点から、サンプルを記憶された手本または典型的な代表の参照セットと比較することにより、モデル予測の直感的な説明を提供します。
シーケンシャル データ モデリングの分野では、通常、プロトタイプの類似度の計算は、エンコードされた表現ベクトルに基づいています。
ただし、関数の再帰性が高いため、通常、プロトタイプに基づく説明と元の入力との間に無視できない差異があります。
この作業では、プロトタイプの概念の線形結合を使用して独自の予測を説明する自己説明型選択モデル (SESM) を提案します。
このモデルは、さまざまな概念を大部分活性化する入力のサブシーケンスをプロトタイプ部分として選択することにより、ケースベースの推論のアイデアを採用しています。ユーザーは、モデルの決定を理解するために、さまざまな入力例から選択されたサブシーケンスと比較できます。
解釈可能性を高めるために、トレーニングの目的として、多様性、安定性、局所性などの複数の制約を設計します。
さまざまなドメインでの広範な実験により、私たちの方法が有望な解釈可能性と競争力のある精度を示すことが示されています。

要約(オリジナル)

Prototype-based interpretability methods provide intuitive explanations of model prediction by comparing samples to a reference set of memorized exemplars or typical representatives in terms of similarity. In the field of sequential data modeling, similarity calculations of prototypes are usually based on encoded representation vectors. However, due to highly recursive functions, there is usually a non-negligible disparity between the prototype-based explanations and the original input. In this work, we propose a Self-Explaining Selective Model (SESM) that uses a linear combination of prototypical concepts to explain its own predictions. The model employs the idea of case-based reasoning by selecting sub-sequences of the input that mostly activate different concepts as prototypical parts, which users can compare to sub-sequences selected from different example inputs to understand model decisions. For better interpretability, we design multiple constraints including diversity, stability, and locality as training objectives. Extensive experiments in different domains demonstrate that our method exhibits promising interpretability and competitive accuracy.

arxiv情報

著者 Yifei Zhang,Neng Gao,Cunqing Ma
発行日 2023-03-17 02:15:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク