MaskCon: Masked Contrastive Learning for Coarse-Labelled Dataset

要約

深層学習は、高度なニューラル ネットワーク構造と大規模な人間の注釈付きデータセットの助けを借りて、近年大きな成功を収めています。
ただし、大規模なデータセットに正確かつ効率的に注釈を付けるには、多くの場合、費用がかかり、特に細かいラベルが必要な特殊なドメインでは困難です。
この設定では、専門知識を必要としないため、粗いラベルを取得するのがはるかに簡単です。
この作業では、$\textbf{Mask}$ed $\textbf{Con}$trastive learning~($\textbf{MaskCon}$) と呼ばれる対照的な学習方法を提案し、未調査の問題設定に対処します。
より細かいラベル付けの問題に対処するために、粗いラベル付けされたデータセットで学習します。
より具体的には、対照的な学習フレームワーク内で、各サンプルに対して、他のサンプルに対する粗いラベルと問題のサンプルの別の拡張ビューを使用して、この方法でソフトラベルを生成します。
サンプルの拡張のみがハード ポジティブと見なされる自己教師あり対照学習とは対照的に、同じ粗いラベルを持つサンプルのみがハード ポジティブと見なされる教師あり対照学習では、サンプル距離に基づくソフト ラベルを提案します。
粗いラベル。
これにより、サンプル間の関係と粗いラベルの両方を利用できます。
私たちの方法が多くの既存の最先端の作品を特別なケースとして取得できること、および一般化エラーのより厳しい境界を提供することを示します。
実験的に、私たちの方法は、CIFAR10、CIFAR100、ImageNet-1K、Standford Online Products、Stanford Cars196 データセットなど、さまざまなデータセットで現在の最先端技術を大幅に改善しています。
コードと注釈は、https://github.com/MrChenFeng/MaskCon_CVPR2023 で入手できます。

要約(オリジナル)

Deep learning has achieved great success in recent years with the aid of advanced neural network structures and large-scale human-annotated datasets. However, it is often costly and difficult to accurately and efficiently annotate large-scale datasets, especially for some specialized domains where fine-grained labels are required. In this setting, coarse labels are much easier to acquire as they do not require expert knowledge. In this work, we propose a contrastive learning method, called $\textbf{Mask}$ed $\textbf{Con}$trastive learning~($\textbf{MaskCon}$) to address the under-explored problem setting, where we learn with a coarse-labelled dataset in order to address a finer labelling problem. More specifically, within the contrastive learning framework, for each sample our method generates soft-labels with the aid of coarse labels against other samples and another augmented view of the sample in question. By contrast to self-supervised contrastive learning where only the sample’s augmentations are considered hard positives, and in supervised contrastive learning where only samples with the same coarse labels are considered hard positives, we propose soft labels based on sample distances, that are masked by the coarse labels. This allows us to utilize both inter-sample relations and coarse labels. We demonstrate that our method can obtain as special cases many existing state-of-the-art works and that it provides tighter bounds on the generalization error. Experimentally, our method achieves significant improvement over the current state-of-the-art in various datasets, including CIFAR10, CIFAR100, ImageNet-1K, Standford Online Products and Stanford Cars196 datasets. Code and annotations are available at https://github.com/MrChenFeng/MaskCon_CVPR2023.

arxiv情報

著者 Chen Feng,Ioannis Patras
発行日 2023-03-22 17:08:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク