要約
ある特徴が幾何学的な変換の下でも不変である対称性は、畳み込みニューラルネットワーク(CNN)を設計する際に、しばしば強力な事前知識として機能する。従来のCNNは本質的に並進等価性をサポートするが、この特性を回転や反射に拡張することは困難であることが判明しており、しばしば等価性、効率、情報損失の間で妥協せざるを得ない。本研究では、ガウス混合リング畳み込み(GMR-Conv)を導入する。これは、ガウス重みリングの混合を用いて放射状の対称性を平滑化する効率的な畳み込みカーネルである。この設計により、円形カーネルの離散化誤差を軽減し、計算オーバーヘッドを発生させることなく、ロバストな回転と反射の等価性を保持する。さらに、新しいパラメータ化と計算戦略により、GMR-Convの空間効率と速度効率の両方を最適化し、許容可能なコストでより大きなカーネルを可能にする。8つの分類データセットと1つのセグメンテーションデータセットを用いた広範な実験により、GMR-Convは従来のCNNの性能に匹敵するだけでなく、向きのないデータを用いたアプリケーションではそれを上回ることができることが実証された。また、GMR-Convは最先端の等変量学習法よりも頑健で効率的であることも証明された。我々の研究は、放射状の対称性を注意深く適用することで、情報損失の課題を軽減できることを示す刺激的な経験的証拠を提供し、等変量ネットワークアーキテクチャにおける有望な進歩を示すものである。コードはhttps://github.com/XYPB/GMR-Conv。
要約(オリジナル)
Symmetry, where certain features remain invariant under geometric transformations, can often serve as a powerful prior in designing convolutional neural networks (CNNs). While conventional CNNs inherently support translational equivariance, extending this property to rotation and reflection has proven challenging, often forcing a compromise between equivariance, efficiency, and information loss. In this work, we introduce Gaussian Mixture Ring Convolution (GMR-Conv), an efficient convolution kernel that smooths radial symmetry using a mixture of Gaussian-weighted rings. This design mitigates discretization errors of circular kernels, thereby preserving robust rotation and reflection equivariance without incurring computational overhead. We further optimize both the space and speed efficiency of GMR-Conv via a novel parameterization and computation strategy, allowing larger kernels at an acceptable cost. Extensive experiments on eight classification and one segmentation datasets demonstrate that GMR-Conv not only matches conventional CNNs’ performance but can also surpass it in applications with orientation-less data. GMR-Conv is also proven to be more robust and efficient than the state-of-the-art equivariant learning methods. Our work provides inspiring empirical evidence that carefully applied radial symmetry can alleviate the challenges of information loss, marking a promising advance in equivariant network architectures. The code is available at https://github.com/XYPB/GMR-Conv.
arxiv情報
| 著者 | Yuexi Du,Jiazhen Zhang,Nicha C. Dvornek,John A. Onofrey |
| 発行日 | 2025-04-03 17:58:18+00:00 |
| arxivサイト | arxiv_id(pdf) |