要約
説明可能なAI(XAI)は、致命的な決定のリスクが高いため、臨床診断などのセーフティクリティカルシステムで必要です。
ただし、現在、XAIは、明確に定義されたプロセスではなく、メソッドの緩いコレクションに似ています。
この作業では、XAIの最大のサブグループ、解釈可能な機械学習(IML)、および古典的な統計の間の概念的な類似性について詳しく説明します。
これらの類似性に基づいて、統計的プロセスに沿ったIMLの形式化を提示します。
この統計ビューを採用することで、機械学習モデルとIMLメソッドを高度な統計ツールとして解釈できます。
この解釈に基づいて、3つの重要な質問を推測します。これらの質問は、セーフティクリティカルな設定でのIMLの成功と採用に不可欠であると特定しています。
これらの質問を定式化することにより、IMLを古典的な統計と区別するものと、この分野の将来に私たちの視点が何を意味するかについての議論をさらに促進することを目指しています。
要約(オリジナル)
Explainable AI (XAI) is a necessity in safety-critical systems such as in clinical diagnostics due to a high risk for fatal decisions. Currently, however, XAI resembles a loose collection of methods rather than a well-defined process. In this work, we elaborate on conceptual similarities between the largest subgroup of XAI, interpretable machine learning (IML), and classical statistics. Based on these similarities, we present a formalization of IML along the lines of a statistical process. Adopting this statistical view allows us to interpret machine learning models and IML methods as sophisticated statistical tools. Based on this interpretation, we infer three key questions, which we identify as crucial for the success and adoption of IML in safety-critical settings. By formulating these questions, we further aim to spark a discussion about what distinguishes IML from classical statistics and what our perspective implies for the future of the field.
arxiv情報
著者 | Lukas Klein,Mennatallah El-Assady,Paul F. Jäger |
発行日 | 2022-07-11 15:49:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google