要約
ディープ ニューラル ネットワークは、多くのデータ駆動型および予測指向のアプリケーションで優れたパフォーマンスを発揮し、時には人間よりも優れたパフォーマンスを発揮することさえあります。
ただし、それらの最も重大な欠点は、解釈可能性の欠如であり、多くの実際のアプリケーションでは魅力的ではありません。
モラルの問題や、犯罪判断、財務分析、医学的診断などの不確実な環境要因に関連する場合、モデルの予測の証拠を掘り起こす (モデルの知識を解釈する) ことは、人間を説得するために不可欠です。
したがって、モデルの知識を解釈する方法を調査することは、学術研究と実際のアプリケーションの両方にとって最も重要です。
要約(オリジナル)
Deep neural networks have demonstrated remarkable performance in many data-driven and prediction-oriented applications, and sometimes even perform better than humans. However, their most significant drawback is the lack of interpretability, which makes them less attractive in many real-world applications. When relating to the moral problem or the environmental factors that are uncertain such as crime judgment, financial analysis, and medical diagnosis, it is essential to mine the evidence for the model’s prediction (interpret model knowledge) to convince humans. Thus, investigating how to interpret model knowledge is of paramount importance for both academic research and real applications.
arxiv情報
著者 | Jiahui Li,Kun Kuang,Lin Li,Long Chen,Songyang Zhang,Jian Shao,Jun Xiao |
発行日 | 2023-02-21 16:33:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google