Learning by Sorting: Self-supervised Learning with Group Ordering Constraints

要約

ラベル付けされていないデータから表現を学習する際に、対照学習は有力な材料となっている。しかし、既存の手法は主に対の関係を考慮している。本論文では、Group Ordering Constraints (GroCo) に基づく自己教師付き対照学習への新しいアプローチを提案する。GroCoの損失は、画像のペアではなく、ポジティブ画像とネガティブ画像のグループを比較するというアイデアを活用する。微分可能なソートアルゴリズムの最近の成功に基づき、グループ順序制約は全てのポジティブサンプル(ポジティブグループ)の距離が全てのネガティブ画像(ネガティブグループ)の距離より小さいことを強制する。したがって、ポジティブサンプルはアンカーの周りに集まるように強制される。これにより、局所近傍をより全体的に最適化することができる。我々は、提案する設定を競争力のある自己教師付き学習ベンチマーク群上で評価し、我々の手法が線形プロービングの場合に現在の手法に対して競争力があるだけでなく、全てのベンチマークでk-NNの性能が大幅に向上したことから分かるように、局所表現の高い一貫性につながることを示す。

要約(オリジナル)

Contrastive learning has become a prominent ingredient in learning representations from unlabeled data. However, existing methods primarily consider pairwise relations. This paper proposes a new approach towards self-supervised contrastive learning based on Group Ordering Constraints (GroCo). The GroCo loss leverages the idea of comparing groups of positive and negative images instead of pairs of images. Building on the recent success of differentiable sorting algorithms, group ordering constraints enforce that the distances of all positive samples (a positive group) are smaller than the distances of all negative images (a negative group); thus, enforcing positive samples to gather around an anchor. This leads to a more holistic optimization of the local neighborhoods. We evaluate the proposed setting on a suite of competitive self-supervised learning benchmarks and show that our method is not only competitive to current methods in the case of linear probing but also leads to higher consistency in local representations, as can be seen from a significantly improved k-NN performance across all benchmarks.

arxiv情報

著者 Nina Shvetsova,Felix Petersen,Anna Kukleva,Bernt Schiele,Hilde Kuehne
発行日 2023-01-05 11:17:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク