要約
責任ある人工知能(AI)システムの作成は、AIの作品の現代の研究開発における重要な問題です。
責任あるAIシステムの特性の1つは、その説明可能性です。
論文では、説明可能なディープラーニング(XDL)システムに興味があります。
物理的なオブジェクトのデジタルツインの作成に基づいて、読みやすいディープラーニングモデルのために読みやすい双子(不正確な情報フローモデルの形で)を作成するというアイデアを紹介します。
ディープラーニングモデル(DLM)から不正確な情報フローモデル(IIFM)に切り替えるための完全な手順が表示されます。
提案されたアプローチは、MNISTデータセットから手書きの数字を画像認識するための深い学習分類モデルの例で説明されています。
要約(オリジナル)
Creating responsible artificial intelligence (AI) systems is an important issue in contemporary research and development of works on AI. One of the characteristics of responsible AI systems is their explainability. In the paper, we are interested in explainable deep learning (XDL) systems. On the basis of the creation of digital twins of physical objects, we introduce the idea of creating readable twins (in the form of imprecise information flow models) for unreadable deep learning models. The complete procedure for switching from the deep learning model (DLM) to the imprecise information flow model (IIFM) is presented. The proposed approach is illustrated with an example of a deep learning classification model for image recognition of handwritten digits from the MNIST data set.
arxiv情報
著者 | Krzysztof Pancerz,Piotr Kulicki,Michał Kalisz,Andrzej Burda,Maciej Stanisławski,Jaromir Sarzyński |
発行日 | 2025-04-17 17:55:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google