要約
不変表現の学習は、自己教師あり学習への長年のアプローチです。
ただし、最近では、表現内の等変特性の保存が進歩しており、高度に規定されたアーキテクチャでもそれが行われています。
この研究では、新しい視点に関して等変性を捉えることが示されているカプセル ネットワーク (CapsNet) を使用する、不変等変自己教師ありアーキテクチャを提案します。
我々は、等変自己教師ありアーキテクチャで CapsNet を使用すると、より高い効率とより少ないネットワーク パラメータで等変タスクにおけるダウンストリーム パフォーマンスの向上が達成されることを実証します。
CapsNet のアーキテクチャの変更に対応するために、エントロピーの最小化に基づいた新しい目的関数を導入します。
CapsIE (Capsule Invariant Equivariant Network) と名付けたこのアプローチは、以前の等変 SSL 手法と比較して、3DIEBench データセット上の等変回転タスクで最先端のパフォーマンスを達成しながら、教師あり対応物と競合するパフォーマンスを実現します。
私たちの結果は、以前の CapsNet ベンチマークと比較して、大規模なマルチタスク データセットの複雑で一般化された表現を学習する CapsNet の能力を示しています。
コードは https://github.com/AberdeenML/CapsIE で入手できます。
要約(オリジナル)
Learning invariant representations has been the longstanding approach to self-supervised learning. However, recently progress has been made in preserving equivariant properties in representations, yet do so with highly prescribed architectures. In this work, we propose an invariant-equivariant self-supervised architecture that employs Capsule Networks (CapsNets) which have been shown to capture equivariance with respect to novel viewpoints. We demonstrate that the use of CapsNets in equivariant self-supervised architectures achieves improved downstream performance on equivariant tasks with higher efficiency and fewer network parameters. To accommodate the architectural changes of CapsNets, we introduce a new objective function based on entropy minimisation. This approach which we name CapsIE (Capsule Invariant Equivariant Network) achieves state-of-the-art performance on the equivariant rotation tasks on the 3DIEBench dataset compared to prior equivariant SSL methods, while performing competitively against supervised counterparts. Our results demonstrate the ability of CapsNets to learn complex and generalised representations for large-scale, multi-task datasets compared to previous CapsNet benchmarks. Code is available at https://github.com/AberdeenML/CapsIE.
arxiv情報
著者 | Miles Everett,Aiden Durrant,Mingjun Zhong,Georgios Leontidis |
発行日 | 2024-11-20 17:14:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google