Towards the Characterization of Representations Learned via Capsule-based Network Architectures

要約

カプセル ネットワーク (CapsNets) は、標準のディープ ニューラル ネットワークのよりコンパクトで解釈可能な代替手段として再導入されました。
最近の取り組みにより、圧縮機能が証明されていますが、今日まで、その解釈可能性の特性は十分に評価されていません。
ここでは、これらのタイプのネットワークの解釈可能性を評価するための体系的かつ原則に基づいた研究を実施します。
さらに、学習された表現内で部分と全体の関係が実際にどのレベルまでエンコードされているかを分析することに特別な注意を払っています。
MNIST、SVHN、PASCAL-part、および CelebA データセットにおける私たちの分析は、CapsNets でエンコードされた表現が、文献で一般的に述べられているほどもつれが解けておらず、部分と全体の関係に厳密に関連付けられていない可能性があることを示唆しています。

要約(オリジナル)

Capsule Networks (CapsNets) have been re-introduced as a more compact and interpretable alternative to standard deep neural networks. While recent efforts have proved their compression capabilities, to date, their interpretability properties have not been fully assessed. Here, we conduct a systematic and principled study towards assessing the interpretability of these types of networks. Moreover, we pay special attention towards analyzing the level to which part-whole relationships are indeed encoded within the learned representation. Our analysis in the MNIST, SVHN, PASCAL-part and CelebA datasets suggest that the representations encoded in CapsNets might not be as disentangled nor strictly related to parts-whole relationships as is commonly stated in the literature.

arxiv情報

著者 Saja Tawalbeh,José Oramas
発行日 2024-12-13 15:17:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク