One Explanation Does Not Fit XIL

要約

タイトル:One Explanation Does Not Fit XIL

要約:
– 現在、機械学習のモデルは多くの分野で優れた結果を産出しているが、同時にショートカット学習や誤った相関関係に苦しんでいる。
– これらの欠点を解決するために、説明的対話型機械学習(XIL)フレームワークが提案された。これは、ユーザのフィードバックを取り入れてモデルの説明を修正することでモデルを改善するものである。
– この論文では、このフレームワークで使用される説明について詳細に調査している。特に、複数の説明法を使ってモデルを同時に修正する方法について検討している。
– この研究により、私たちは「One Explanation Does Not Fit XIL」という結論に達し、XILを介してモデルを修正する際に複数の説明方法を考慮することを提案している。

要約(オリジナル)

Current machine learning models produce outstanding results in many areas but, at the same time, suffer from shortcut learning and spurious correlations. To address such flaws, the explanatory interactive machine learning (XIL) framework has been proposed to revise a model by employing user feedback on a model’s explanation. This work sheds light on the explanations used within this framework. In particular, we investigate simultaneous model revision through multiple explanation methods. To this end, we identified that \textit{one explanation does not fit XIL} and propose considering multiple ones when revising models via XIL.

arxiv情報

著者 Felix Friedrich,David Steinmann,Kristian Kersting
発行日 2023-04-14 14:01:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク