From CNNs to Shift-Invariant Twin Models Based on Complex Wavelets

要約

畳み込みニューラル ネットワークにおけるシフト不変性と予測精度を向上させる新しい方法を提案します。
具体的には、最初の層の組み合わせ「実数値の畳み込み + 最大プーリング」(RMax) を、変換またはシフトに対して安定した「複素数値の畳み込み + モジュラス」(CMod) に置き換えます。
私たちのアプローチを正当化するために、畳み込みカーネルがバンドパスで指向性がある (ガボールのようなフィルター) 場合、CMod と RMax は同等の出力を生成すると主張します。
したがって、この文脈では、CMod は RMax の安定した代替手段と考えることができます。
この特性を強制するために、畳み込みカーネルがそのようなガボールのような構造を採用するように制約します。
対応するアーキテクチャは、明確に定義された数学演算子を使用して、元の自由にトレーニングされたモデルの動作を模倣するため、数学的ツインと呼ばれます。
私たちのアプローチは、ローパス フィルターに基づく従来の方法と比較して、ImageNet および CIFAR-10 分類タスクで優れた精度を実現します。
おそらく、高周波の詳細を保持することに重点を置いた私たちのアプローチは、シフト不変性と情報保存の間のより良いバランスに貢献し、その結果、パフォーマンスが向上します。
さらに、同時作業よりも計算コストとメモリ使用量が低いため、実用化に向けた有望なソリューションとなります。

要約(オリジナル)

We propose a novel method to increase shift invariance and prediction accuracy in convolutional neural networks. Specifically, we replace the first-layer combination ‘real-valued convolutions + max pooling’ (RMax) by ‘complex-valued convolutions + modulus’ (CMod), which is stable to translations, or shifts. To justify our approach, we claim that CMod and RMax produce comparable outputs when the convolution kernel is band-pass and oriented (Gabor-like filter). In this context, CMod can therefore be considered as a stable alternative to RMax. To enforce this property, we constrain the convolution kernels to adopt such a Gabor-like structure. The corresponding architecture is called mathematical twin, because it employs a well-defined mathematical operator to mimic the behavior of the original, freely-trained model. Our approach achieves superior accuracy on ImageNet and CIFAR-10 classification tasks, compared to prior methods based on low-pass filtering. Arguably, our approach’s emphasis on retaining high-frequency details contributes to a better balance between shift invariance and information preservation, resulting in improved performance. Furthermore, it has a lower computational cost and memory footprint than concurrent work, making it a promising solution for practical implementation.

arxiv情報

著者 Hubert Leterme,Kévin Polisano,Valérie Perrier,Karteek Alahari
発行日 2024-05-31 15:08:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV, stat.ML パーマリンク