Equivariance versus Augmentation for Spherical Images

要約

球面画像に適用される畳み込みニューラルネットワーク(CNN)における回転同変の役割を分析します。
S2CNNとして知られるグループ同変ネットワークと、データ拡張の量を増やしてトレーニングされた標準の非同変CNNのパフォーマンスを比較します。
選択したアーキテクチャは、それぞれの設計パラダイムのベースラインリファレンスと見なすことができます。
私たちのモデルは、球に投影されたMNISTまたはFashionMNISTデータセットからの単一または複数のアイテムでトレーニングおよび評価されます。
本質的に回転不変である画像分類のタスクでは、データ拡張の量とネットワークのサイズを大幅に増やすことにより、標準のCNNが少なくとも同変ネットワークと同じパフォーマンスに到達できることがわかります。
対照的に、セマンティックセグメンテーションの本質的に同変のタスクの場合、非同変ネットワークは、パラメータが大幅に少ない同変ネットワークよりも一貫して優れています。
また、さまざまなネットワークの推論遅延とトレーニング時間を分析および比較し、同変アーキテクチャと実際の問題のデータ拡張との間の詳細なトレードオフの考慮を可能にします。
実験で使用された同変球面ネットワークは、https://github.com/JanEGerken/sem_seg_s2cnnで入手できます。

要約(オリジナル)

We analyze the role of rotational equivariance in convolutional neural networks (CNNs) applied to spherical images. We compare the performance of the group equivariant networks known as S2CNNs and standard non-equivariant CNNs trained with an increasing amount of data augmentation. The chosen architectures can be considered baseline references for the respective design paradigms. Our models are trained and evaluated on single or multiple items from the MNIST or FashionMNIST dataset projected onto the sphere. For the task of image classification, which is inherently rotationally invariant, we find that by considerably increasing the amount of data augmentation and the size of the networks, it is possible for the standard CNNs to reach at least the same performance as the equivariant network. In contrast, for the inherently equivariant task of semantic segmentation, the non-equivariant networks are consistently outperformed by the equivariant networks with significantly fewer parameters. We also analyze and compare the inference latency and training times of the different networks, enabling detailed tradeoff considerations between equivariant architectures and data augmentation for practical problems. The equivariant spherical networks used in the experiments are available at https://github.com/JanEGerken/sem_seg_s2cnn .

arxiv情報

著者 Jan E. Gerken,Oscar Carlsson,Hampus Linander,Fredrik Ohlsson,Christoffer Petersson,Daniel Persson
発行日 2022-07-12 13:02:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク