Aligning Characteristic Descriptors with Images for Human-Expert-like Explainability

要約

法執行機関や医療診断などのミッションクリティカルな領域では、ユーザーの信頼を確保し、情報に基づいた意思決定をサポートするために、深層学習モデルの出力を説明および解釈する能力が非常に重要です。
説明可能性の進歩にもかかわらず、既存の方法では、人間の専門家によって与えられる説明の深さと明瞭さを反映した説明を提供するには不十分であることがよくあります。
このような専門家レベルの説明は、法執行機関や医療現場でのディープラーニング モデルの信頼できる適用に不可欠です。
さらに、現実世界のシナリオにおけるほとんどの説明は主に自然言語を通じて伝えられることを私たちは認識しています。
これらのニーズに対処するために、我々は、特徴的な記述子を利用して、画像内の存在を識別することでモデルの決定を説明し、それによって専門家のような説明を生成する新しいアプローチを提案します。
私たちの方法では、モデル アーキテクチャ内にコンセプト ボトルネック層が組み込まれており、画像と記述子のエンコーディング間の類似性を計算して、固有の忠実な説明を提供します。
顔認識と胸部 X 線診断の実験を通じて、私たちのアプローチが、顕著性マップの使用に限定されることが多い既存の技術と比べて、顕著なコントラストを提供することを実証しました。
私たちは、私たちのアプローチが、顔認識と医療診断という重要な領域においてディープラーニング システムの説明責任、透明性、信頼性を高めるための重要な一歩となると信じています。

要約(オリジナル)

In mission-critical domains such as law enforcement and medical diagnosis, the ability to explain and interpret the outputs of deep learning models is crucial for ensuring user trust and supporting informed decision-making. Despite advancements in explainability, existing methods often fall short in providing explanations that mirror the depth and clarity of those given by human experts. Such expert-level explanations are essential for the dependable application of deep learning models in law enforcement and medical contexts. Additionally, we recognize that most explanations in real-world scenarios are communicated primarily through natural language. Addressing these needs, we propose a novel approach that utilizes characteristic descriptors to explain model decisions by identifying their presence in images, thereby generating expert-like explanations. Our method incorporates a concept bottleneck layer within the model architecture, which calculates the similarity between image and descriptor encodings to deliver inherent and faithful explanations. Through experiments in face recognition and chest X-ray diagnosis, we demonstrate that our approach offers a significant contrast over existing techniques, which are often limited to the use of saliency maps. We believe our approach represents a significant step toward making deep learning systems more accountable, transparent, and trustworthy in the critical domains of face recognition and medical diagnosis.

arxiv情報

著者 Bharat Chandra Yalavarthi,Nalini Ratha
発行日 2024-11-06 15:47:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク