Explaining Deep Neural Networks for Point Clouds using Gradient-based Visualisations

要約

ディープニューラルネットワークによって行われた決定を説明することは、急速に進歩している研究トピックです。
近年、いくつかのアプローチが、構造化された2D画像入力データ用に設計されたニューラルネットワークによって行われた決定の視覚的な説明を提供しようと試みました。
この論文では、非構造化3Dデータ、つまり点群を分類するために設計されたネットワークの大まかな視覚的説明を生成するための新しいアプローチを提案します。
この方法では、最終的なフィーチャマップレイヤーに戻る勾配を使用し、これらの値を入力ポイントクラウド内の対応するポイントの寄与としてマップします。
次元の不一致と入力ポイントと最終的な特徴マップ間の空間的一貫性の欠如のため、私たちのアプローチは、勾配とポイントドロップを組み合わせて、ポイントクラウドのさまざまな部分の説明を繰り返し計算します。
私たちのアプローチの一般性は、「単一オブジェクト」ネットワークPointNet、PointNet ++、DGCNN、「シーン」ネットワークVoteNetなど、さまざまな点群分類ネットワークでテストされています。
私たちの方法は、重要な地域を強調し、ネットワークアーキテクチャの意思決定プロセスへの洞察を提供する対称的な説明マップを生成します。
定量的、定量的、人間的な研究を用いて、比較アプローチに対する説明方法の信頼性と解釈可能性を徹底的に評価します。
すべてのコードはPyTorchに実装されており、一般に公開されます。

要約(オリジナル)

Explaining decisions made by deep neural networks is a rapidly advancing research topic. In recent years, several approaches have attempted to provide visual explanations of decisions made by neural networks designed for structured 2D image input data. In this paper, we propose a novel approach to generate coarse visual explanations of networks designed to classify unstructured 3D data, namely point clouds. Our method uses gradients flowing back to the final feature map layers and maps these values as contributions of the corresponding points in the input point cloud. Due to dimensionality disagreement and lack of spatial consistency between input points and final feature maps, our approach combines gradients with points dropping to compute explanations of different parts of the point cloud iteratively. The generality of our approach is tested on various point cloud classification networks, including ‘single object’ networks PointNet, PointNet++, DGCNN, and a ‘scene’ network VoteNet. Our method generates symmetric explanation maps that highlight important regions and provide insight into the decision-making process of network architectures. We perform an exhaustive evaluation of trust and interpretability of our explanation method against comparative approaches using quantitative, quantitative and human studies. All our code is implemented in PyTorch and will be made publicly available.

arxiv情報

著者 Jawad Tayyub,Muhammad Sarmad,Nicolas Schönborn
発行日 2022-07-26 15:42:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク