MNN: Mixed Nearest-Neighbors for Self-Supervised Learning

要約

対照的自己教師あり学習では、通常、ポジティブ サンプルは同じ画像から異なる拡張ビューで抽出されるため、ポジティブ サンプルのソースは比較的限られます。
この問題を軽減する効果的な方法は、サンプル間の関係を組み込むことです。これには、フレームワークに陽性サンプルの上位 k 個の最近傍を含めることが含まれます。
ただし、偽の近傍 (つまり、陽性サンプルと同じカテゴリに属さない近傍) の問題は、客観的ではありますが、人間の監視なしで近傍サンプルをクエリするため、見落とされがちな課題です。
この論文では、自己教師あり学習のための混合最近傍 (MNN) と呼ばれる単純な自己教師あり学習フレームワークを紹介します。
MNN は、直観的な重み付けアプローチと画像混合操作を通じて、陽性サンプルのセマンティクスに対する隣接サンプルの影響を最適化します。
私たちの研究の結果は、MNN が 4 つのベンチマーク データセットで優れた汎化パフォーマンスとトレーニング効率を示すことを示しています。

要約(オリジナル)

In contrastive self-supervised learning, positive samples are typically drawn from the same image but in different augmented views, resulting in a relatively limited source of positive samples. An effective way to alleviate this problem is to incorporate the relationship between samples, which involves including the top-k nearest neighbors of positive samples in the framework. However, the problem of false neighbors (i.e., neighbors that do not belong to the same category as the positive sample) is an objective but often overlooked challenge due to the query of neighbor samples without human supervision. In this paper, we present a simple Self-supervised learning framework called Mixed Nearest-Neighbors for Self-Supervised Learning (MNN). MNN optimizes the influence of neighbor samples on the semantics of positive samples through an intuitive weighting approach and image mixture operations. The results of our study demonstrate that MNN exhibits exceptional generalization performance and training efficiency on four benchmark datasets.

arxiv情報

著者 Chen Peng,Xianzhong Long,Yun Li
発行日 2023-11-01 14:59:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク