On the Relationship Between Interpretability and Explainability in Machine Learning

要約

解釈可能性と説明可能性は、一か八かの意思決定やトラブルシューティングにおいて重要であるため、機械学習の分野でますます注目を集めています。
どちらも予測変数とその決定プロセスに関する情報を提供するため、多くの場合、1 つの目的のための 2 つの独立した手段とみなされます。
この見解は、複雑なブラックボックス モデル用に設計された説明可能性テクニック、または多くの説明可能性ツールを無視した解釈可能なアプローチという二分法的な文献につながりました。
この意見書では、解釈可能性と説明可能性の主な欠点を列挙し、両方がどのようにして互いの欠点を軽減するかを議論することによって、解釈可能性と説明可能性が互いに代替できるという一般的な考えに異議を唱えます。
そうすることで、私たちは解釈可能性と説明可能性に関する新しい視点を求め、それぞれの資産を活用しながら、両方のトピックを同時に対象とする作業を行います。

要約(オリジナル)

Interpretability and explainability have gained more and more attention in the field of machine learning as they are crucial when it comes to high-stakes decisions and troubleshooting. Since both provide information about predictors and their decision process, they are often seen as two independent means for one single end. This view has led to a dichotomous literature: explainability techniques designed for complex black-box models, or interpretable approaches ignoring the many explainability tools. In this position paper, we challenge the common idea that interpretability and explainability are substitutes for one another by listing their principal shortcomings and discussing how both of them mitigate the drawbacks of the other. In doing so, we call for a new perspective on interpretability and explainability, and works targeting both topics simultaneously, leveraging each of their respective assets.

arxiv情報

著者 Benjamin Leblanc,Pascal Germain
発行日 2024-04-25 12:06:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク