GoogLe2Net: Going Transverse with Convolutions

要約

機能情報を効果的にキャプチャすることは、ビジョン タスクにおいて非常に重要です。
畳み込みニューラル ネットワーク (CNN) の開発に伴い、残差接続や複数のスケールなどの概念により、さまざまなディープ ラーニング ビジョン タスクで継続的なパフォーマンスの向上が促進されます。
しかし、既存の方法では、これらの有効なアイデアの利点を有機的に組み合わせることはできません。
この論文では、GoogLe2Net と呼ばれる新しい CNN アーキテクチャを提案します。これは、畳み込み層の隣接するグループ間に横方向の通路を作成して機能フローを有効にする、残差機能再利用開始 (ResFRI) または分割残差機能再利用開始 (Split-ResFRI) で構成されます。
後者の処理ブランチに接続し、より良いプロセス情報への残りの接続を保持します。
当社の GoogLe2Net は、前述の畳み込み層のグループによってキャプチャされた情報を再利用し、マルチスケールの特徴をきめ細かいレベルで表現することができるため、画像分類のパフォーマンスが向上します。
また、私たちが提案したインセプションは、移行コストなしで、インセプションのようなネットワークに直接組み込むことができます。
さらに、CIFAR10 (97.94%)、CIFAR100 (85.91%)、Tiny Imagenet (70.54%) などの一般的なビジョン データセットに基づく実験では、他の最新モデルと比較して、画像分類タスクでより良い結果が得られます。

要約(オリジナル)

Capturing feature information effectively is of great importance in vision tasks. With the development of convolutional neural networks (CNNs), concepts like residual connection and multiple scales promote continual performance gains on diverse deep learning vision tasks. However, the existing methods do not organically combined advantages of these valid ideas. In this paper, we propose a novel CNN architecture called GoogLe2Net, it consists of residual feature-reutilization inceptions (ResFRI) or split residual feature-reutilization inceptions (Split-ResFRI) which create transverse passages between adjacent groups of convolutional layers to enable features flow to latter processing branches and possess residual connections to better process information. Our GoogLe2Net is able to reutilize information captured by foregoing groups of convolutional layers and express multi-scale features at a fine-grained level, which improves performances in image classification. And the inception we proposed could be embedded into inception-like networks directly without any migration costs. Moreover, in experiments based on popular vision datasets, such as CIFAR10 (97.94%), CIFAR100 (85.91%) and Tiny Imagenet (70.54%), we obtain better results on image classification task compared with other modern models.

arxiv情報

著者 Yuanpeng He
発行日 2023-01-01 15:16:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク