A Cross-Residual Learning for Image Recognition

要約

ResNets とその亜種は、画像認識のさまざまな分野で重要な役割を果たしています。
この論文では、C-ResNets と呼ばれるクロス残差学習ネットワークの一種である ResNets の別のバリアントを示します。これは、ResNets よりも計算量とパラメーターが少なくなります。
C-ResNets は、ジャンパーを高密度化することでモジュール間の情報のやり取りを増やし、ジャンパーの役割を強化します。
さらに、ジャンパーとチャネル数に関する綿密な設計により、C-ResNet のリソース消費をさらに削減し、分類パフォーマンスを向上させることができます。
C-ResNets の有効性をテストするために、実験では微調整された ResNets と同じハイパーパラメーター設定を使用します。
データセット MNIST、FashionMnist、CIFAR-10、CIFAR-100、CALTECH-101、および SVHN で C-ResNets をテストします。
微調整された ResNets と比較して、C-ResNets は分類のパフォーマンスを維持するだけでなく、計算とパラメーターの量を大幅に削減し、GPU と GPU メモリ リソースの使用率を大幅に節約します。
したがって、当社の C-ResNets は、さまざまなシナリオで ResNets に代わる競争力のある実行可能な代替手段です。
コードは https://github.com/liangjunhello/C-ResNet で入手できます

要約(オリジナル)

ResNets and its variants play an important role in various fields of image recognition. This paper gives another variant of ResNets, a kind of cross-residual learning networks called C-ResNets, which has less computation and parameters than ResNets. C-ResNets increases the information interaction between modules by densifying jumpers and enriches the role of jumpers. In addition, some meticulous designs on jumpers and channels counts can further reduce the resource consumption of C-ResNets and increase its classification performance. In order to test the effectiveness of C-ResNets, we use the same hyperparameter settings as fine-tuned ResNets in the experiments. We test our C-ResNets on datasets MNIST, FashionMnist, CIFAR-10, CIFAR-100, CALTECH-101 and SVHN. Compared with fine-tuned ResNets, C-ResNets not only maintains the classification performance, but also enormously reduces the amount of calculations and parameters which greatly save the utilization rate of GPUs and GPU memory resources. Therefore, our C-ResNets is competitive and viable alternatives to ResNets in various scenarios. Code is available at https://github.com/liangjunhello/C-ResNet

arxiv情報

著者 Jun Liang,Songsen Yu,Huan Yang
発行日 2022-11-22 15:12:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク