Deep multi-prototype capsule networks

要約

カプセル ネットワークは、画像の部分を識別し、全体のインスタンス化パラメータを階層的に形成するニューラル ネットワークの一種です。
ネットワークの背後にある目標は、逆コンピュータ グラフィックス タスクを実行することであり、ネットワーク パラメーターは、部分を全体に変換するマッピングの重みです。
クラス内またはパーツ内変動が大きい複雑なデータにおけるカプセル ネットワークのトレーニング可能性は困難です。
この論文では、画像部分のバリエーションを表現するためにカプセル ネットワークを誘導するためのマルチ プロトタイプ アーキテクチャを紹介します。
この目的を達成するために、提案された方法では、クラスおよびパーツごとに単一のカプセルを考慮するのではなく、複数のカプセル (共同グループ カプセル) を使用して、オブジェクトの複数のプロトタイプをキャプチャします。
最後の層では、共同グループのカプセルが競合し、それらのソフト出力が競合するクロスエントロピー損失のターゲットと見なされます。
さらに、中間層では、最もアクティブなカプセルが、共同グループ間で共有された重みを使用して次の層にマッピングされます。
その結果、パラメータが減少するため、暗黙的な重み共有により、より深いカプセル ネットワーク層を持つことが可能になります。
MNIST、SVHN、C-Cube、CEDAR、MCYT、および UTSig データセットの実験結果から、提案されたモデルが画像分類精度に関して他のモデルよりも優れていることが明らかになりました。

要約(オリジナル)

Capsule networks are a type of neural network that identify image parts and form the instantiation parameters of a whole hierarchically. The goal behind the network is to perform an inverse computer graphics task, and the network parameters are the mapping weights that transform parts into a whole. The trainability of capsule networks in complex data with high intra-class or intra-part variation is challenging. This paper presents a multi-prototype architecture for guiding capsule networks to represent the variations in the image parts. To this end, instead of considering a single capsule for each class and part, the proposed method employs several capsules (co-group capsules), capturing multiple prototypes of an object. In the final layer, co-group capsules compete, and their soft output is considered the target for a competitive cross-entropy loss. Moreover, in the middle layers, the most active capsules map to the next layer with a shared weight among the co-groups. Consequently, due to the reduction in parameters, implicit weight-sharing makes it possible to have more deep capsule network layers. The experimental results on MNIST, SVHN, C-Cube, CEDAR, MCYT, and UTSig datasets reveal that the proposed model outperforms others regarding image classification accuracy.

arxiv情報

著者 Saeid Abbassi,Kamaledin Ghiasi-Shirazi,Ahad Harati
発行日 2024-04-23 18:37:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.NE パーマリンク