Quantus: An Explainable AI Toolkit for Responsible Evaluation of Neural Network Explanations and Beyond

要約

タイトル:
Quantus:ニューラルネットワークの説明の責任ある評価をはじめ、解釈性AIツールキット

要約:
– 説明の評価は、まだ深く探求されていない研究トピックですが、解釈性は人工知能に対する信頼を強化することが期待されているため、説明方法をシステム的にレビューし、比較することでその正確性を確認する必要があります。
– これまで、ニューラルネットワークの予測の説明のパフォーマンスを徹底的に迅速に評価するためのXAI評価に焦点を当てたツールは存在しませんでした。
– この分野での透明性と再現性を高めるために、Pythonで包括的で評価指標の整理されたコレクションと解釈方法の評価用のチュートリアルが含まれるQuantusというツールキットを作成しました。
– このツールキットは徹底的にテストされ、オープンソースライセンスのPyPi(またはhttps://github.com/understandable-machine-intelligence-lab/Quantus/)で利用可能です。

要点:
– 説明の評価は探求されていない
– 解釈性はAIに対する信頼を強化する
– 評価にはシステム的レビューと比較が必要
– XAIの評価に焦点を当てた徹底的かつ迅速なツールは存在しない
– quantusはPythonで包括的かつ評価指標が整理され、解釈方法の評価用のチュートリアルが含まれる
– quantusは透明性と再現性を高めるために作成され、徹底的にテストされたオープンソースライセンスで利用可能

要約(オリジナル)

The evaluation of explanation methods is a research topic that has not yet been explored deeply, however, since explainability is supposed to strengthen trust in artificial intelligence, it is necessary to systematically review and compare explanation methods in order to confirm their correctness. Until now, no tool with focus on XAI evaluation exists that exhaustively and speedily allows researchers to evaluate the performance of explanations of neural network predictions. To increase transparency and reproducibility in the field, we therefore built Quantus — a comprehensive, evaluation toolkit in Python that includes a growing, well-organised collection of evaluation metrics and tutorials for evaluating explainable methods. The toolkit has been thoroughly tested and is available under an open-source license on PyPi (or on https://github.com/understandable-machine-intelligence-lab/Quantus/).

arxiv情報

著者 Anna Hedström,Leander Weber,Dilyara Bareeva,Daniel Krakowczyk,Franz Motzkus,Wojciech Samek,Sebastian Lapuschkin,Marina M. -C. Höhne
発行日 2023-04-27 08:58:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク