要約
画像分類タスクを扱うために、いくつかの深層学習(DL)アプローチが提案されている。しかし、その有効性にもかかわらず、結果を説明したり正当化したりすることができないため、解釈可能性に欠けている。解釈可能な画像分類の課題に対処するために、本稿では、解釈可能な直観的ファジィ認知マップ(I2FCM)と名付けられた新しいフレームワークを紹介する。直観的FCM(iFCM)は、FCMの拡張として提案されており、意思決定における人間のためらいに似た概念であるためらいの推定を通じて、その出力の品質を評価する自然なメカニズムを提供する。画像分類の文脈では、ためらいは画像があるクラスに分類される自信のなさの度合いとみなされる。我々の知る限り、iFCMが画像分類に適用されたのはこれが初めてである。b)iFCMの直観的ファジィ相互接続をデータ駆動で自動的に決定するための学習アルゴリズムであり、これによりグラフ構造の定義における人間の介入を減らすことができる。さらに、提案するI2FCMフレームワークは、畳み込みニューラルネットワーク(CNN)を含むDLモデルにも適用可能であり、それらを解釈可能にする。I2FCMの有効性を一般に公開されているデータセットで評価した結果、解釈可能な推論を提供しつつ、分類性能を向上できることが確認された。
要約(オリジナル)
Several deep learning (DL) approaches have been proposed to deal with image classification tasks. However, despite their effectiveness, they lack interpretability, as they are unable to explain or justify their results. To address the challenge of interpretable image classification, this paper introduces a novel framework, named Interpretable Intuitionistic Fuzzy Cognitive Maps (I2FCMs).Intuitionistic FCMs (iFCMs) have been proposed as an extension of FCMs offering a natural mechanism to assess the quality of their output through the estimation of hesitancy, a concept resembling human hesitation in decision making. In the context of image classification, hesitancy is considered as a degree of unconfidence with which an image is categorized to a class. To the best of our knowledge this is the first time iFCMs are applied for image classification. Further novel contributions of the introduced framework include the following: a) a feature extraction process focusing on the most informative image regions; b) a learning algorithm for automatic data-driven determination of the intuitionistic fuzzy interconnections of the iFCM, thereby reducing human intervention in the definition of the graph structure; c) an inherently interpretable classification approach based on image contents, providing understandable explanations of its predictions, using linguistic terms. Furthermore, the proposed I2FCM framework can be applied to DL models, including Convolutional Neural Network (CNN), rendering them interpretable. The effectiveness of I2FCM is evaluated on publicly available datasets, and the results confirm that it can provide enhanced classification performance, while providing interpretable inferences.
arxiv情報
著者 | Georgia Sovatzidi,Michael D. Vasilakakis,Dimitris K. Iakovidis |
発行日 | 2025-04-04 16:28:33+00:00 |
arxivサイト | arxiv_id(pdf) |