要約
深層学習の力と事例ベース推論の解釈可能性を統合する解釈可能な画像分類器である、変形可能なプロトタイプパーツネットワーク(Deformable ProtoPNet)を紹介します。
このモデルは、入力画像をトレーニング中に学習したプロトタイプと比較することで分類し、「これはそのように見えます」という形式で説明を生成します。
ただし、以前の方法では空間的に剛性のあるプロトタイプを使用していましたが、空間的に柔軟なプロトタイプを提案することでこの欠点に対処しています。
各プロトタイプは、入力画像に応じて相対的な空間位置を適応的に変更するいくつかのプロトタイプパーツで構成されています。
その結果、変形可能なProtoPNetは、ポーズの変化とコンテキストを明示的にキャプチャし、モデルの精度と提供される説明の豊富さの両方を向上させることができます。
プロトタイプを使用した他のケースベースの解釈可能なモデルと比較して、私たちのアプローチは最先端の精度を達成し、より大きな文脈で説明を提供します。
コードはhttps://github.com/jdonnelly36/Deformable-ProtoPNetで入手できます。
要約(オリジナル)
We present a deformable prototypical part network (Deformable ProtoPNet), an interpretable image classifier that integrates the power of deep learning and the interpretability of case-based reasoning. This model classifies input images by comparing them with prototypes learned during training, yielding explanations in the form of ‘this looks like that.’ However, while previous methods use spatially rigid prototypes, we address this shortcoming by proposing spatially flexible prototypes. Each prototype is made up of several prototypical parts that adaptively change their relative spatial positions depending on the input image. Consequently, a Deformable ProtoPNet can explicitly capture pose variations and context, improving both model accuracy and the richness of explanations provided. Compared to other case-based interpretable models using prototypes, our approach achieves state-of-the-art accuracy and gives an explanation with greater context. The code is available at https://github.com/jdonnelly36/Deformable-ProtoPNet.
arxiv情報
著者 | Jon Donnelly,Alina Jade Barnett,Chaofan Chen |
発行日 | 2022-07-15 16:17:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google