Restore Translation Using Equivariant Neural Networks

要約

平行移動や回転などの空間変換に対する不変性は、分類ニューラル ネットワークにとって望ましい特性であり、基本的な設計原則です。
ただし、一般的に使用されている畳み込みニューラル ネットワーク (CNN) は、実際には小さな変換に対しても非常に敏感です。
変換不変モデルを設計したり、変換を評価したりすることによって、正確または近似の変換不変性を達成するための膨大な研究が存在します。
これらの作業は通常、標準 CNN に変更を加え、標準データセットのパフォーマンスに悪影響を与えます。
この論文では、分類器を変更するのではなく、同じデータセットの分類器に入力される、変換された (または回転された) 入力を元の入力に復元するための事前分類器復元機能を提案します。
復元器は、アフィン演算子がテンソル空間上で並進等変であるための十分かつ必要な条件を与える理論的結果に基づいています。

要約(オリジナル)

Invariance to spatial transformations such as translations and rotations is a desirable property and a basic design principle for classification neural networks. However, the commonly used convolutional neural networks (CNNs) are actually very sensitive to even small translations. There exist vast works to achieve exact or approximate transformation invariance by designing transformation-invariant models or assessing the transformations. These works usually make changes to the standard CNNs and harm the performance on standard datasets. In this paper, rather than modifying the classifier, we propose a pre-classifier restorer to recover translated (or even rotated) inputs to the original ones which will be fed into any classifier for the same dataset. The restorer is based on a theoretical result which gives a sufficient and necessary condition for an affine operator to be translational equivariant on a tensor space.

arxiv情報

著者 Yihan Wang,Lijia Yu,Xiao-Shan Gao
発行日 2023-06-29 13:34:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク