Taming the Randomness: Towards Label-Preserving Cropping in Contrastive Learning

要約

対照学習(CL)アプローチは、自己教師学習(SSL)方法の非常に成功したサブセットとして大きな認識を得ています。
SSLは、非標識データ、特にコンピュータービジョン(CV)の進歩における重要なステップである、無効な画像データを考えると、深い学習の進歩における重要なステップである、学習を可能にします。
CLは、同じ画像の異なるランダム増強(例:異なる作物)を比較することで機能し、したがって自己研究を達成します。
それにもかかわらず、ランダムに画像を拡張し、特にランダムなトリミングでは、オリジナルから意味的に非常に離れた画像につながるため、メソッドの有効性を損なう可能性があります。
この研究では、自己研究の堅牢性を高め、その結果、有効性を高める2つの新しいパラメーター化された作物方法が導入されています。
結果は、これらの方法を使用すると、ノンパラメーター化されたランダム作物方法と比較して、作物のサイズに応じて、CIFAR-10を分類するという下流タスクで、モデルの精度が2.7 \%から12.4 \%の間で大幅に向上することを示しています。

要約(オリジナル)

Contrastive learning (CL) approaches have gained great recognition as a very successful subset of self-supervised learning (SSL) methods. SSL enables learning from unlabeled data, a crucial step in the advancement of deep learning, particularly in computer vision (CV), given the plethora of unlabeled image data. CL works by comparing different random augmentations (e.g., different crops) of the same image, thus achieving self-labeling. Nevertheless, randomly augmenting images and especially random cropping can result in an image that is semantically very distant from the original and therefore leads to false labeling, hence undermining the efficacy of the methods. In this research, two novel parameterized cropping methods are introduced that increase the robustness of self-labeling and consequently increase the efficacy. The results show that the use of these methods significantly improves the accuracy of the model by between 2.7\% and 12.4\% on the downstream task of classifying CIFAR-10, depending on the crop size compared to that of the non-parameterized random cropping method.

arxiv情報

著者 Mohamed Hassan,Mohammad Wasil,Sebastian Houben
発行日 2025-04-28 14:24:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク