Dynamic Channel Selection in Self-Supervised Learning

要約

自己教師ありアプローチを使用して構築されたコンピューター ビジョン モデルは現在一般的ですが、いくつかの重要な問題が残っています。
自己教師ありモデルは非常に冗長なチャネル機能を学習しますか?
自己管理型ネットワークが重要なチャネルを動的に選択し、不要なチャネルを取り除くことができたらどうでしょうか?
現在、自己教師ありで事前トレーニングされた convnet は、コンピューター ビジョンの教師ありの対応するものと比較して、ダウンストリーム タスクで同等のパフォーマンスを得ています。
ただし、自己教師ありモデルには、多数のパラメーター、計算コストの高いトレーニング戦略、ダウンストリーム タスクでのより高速な推論の明確な必要性などの欠点があります。
この作業では、教師あり学習用に開発された標準的なチャネル選択方法を、自己教師ありでトレーニングされたネットワークに適用する方法を研究することにより、後者に対処することを目標としています。
さまざまなデータセット、特に CIFAR-10、CIFAR-100、および ImageNet-100 にわたる画像分類タスクのチャネル計算のターゲット バジェット $t_{d}$ の範囲で調査結果を検証し、元のネットワークと同等のパフォーマンスを取得します。
すべてのチャネルを選択すると、計算が大幅に削減されますが、FLOP に関して報告されます。

要約(オリジナル)

Whilst computer vision models built using self-supervised approaches are now commonplace, some important questions remain. Do self-supervised models learn highly redundant channel features? What if a self-supervised network could dynamically select the important channels and get rid of the unnecessary ones? Currently, convnets pre-trained with self-supervision have obtained comparable performance on downstream tasks in comparison to their supervised counterparts in computer vision. However, there are drawbacks to self-supervised models including their large numbers of parameters, computationally expensive training strategies and a clear need for faster inference on downstream tasks. In this work, our goal is to address the latter by studying how a standard channel selection method developed for supervised learning can be applied to networks trained with self-supervision. We validate our findings on a range of target budgets $t_{d}$ for channel computation on image classification task across different datasets, specifically CIFAR-10, CIFAR-100, and ImageNet-100, obtaining comparable performance to that of the original network when selecting all channels but at a significant reduction in computation reported in terms of FLOPs.

arxiv情報

著者 Tarun Krishna,Ayush K. Rai,Yasser A. D. Djilali,Alan F. Smeaton,Kevin McGuinness,Noel E. O’Connor
発行日 2022-12-16 16:46:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク