要約
対照的自己教師あり学習では、通常、ポジティブ サンプルは同じ画像から異なる拡張ビューで抽出されるため、ポジティブ サンプルのソースは比較的限られます。
この問題を軽減する効果的な方法は、サンプル間の関係を組み込むことです。これには、陽性サンプルの上位 K 個の最近傍を含めることが含まれます。
ただし、偽の近傍 (つまり、陽性サンプルと同じカテゴリに属さない近傍) の問題は、客観的ではありますが、監視情報なしで近傍サンプルをクエリするため、見落とされがちな課題です。
この論文では、自己教師あり学習のための混合最近傍法 (MNN) と呼ばれる単純な自己教師あり学習フレームワークを紹介します。
MNN は、直観的な重み付けアプローチと画像混合操作を通じて、陽性サンプルのセマンティクスに対する隣接サンプルの影響を最適化します。
結果は、MNN が 4 つのベンチマーク データセットで優れた汎化パフォーマンスとトレーニング効率を示すことを示しています。
要約(オリジナル)
In contrastive self-supervised learning, positive samples are typically drawn from the same image but in different augmented views, resulting in a relatively limited source of positive samples. An effective way to alleviate this problem is to incorporate the relationship between samples, which involves including the top-K nearest neighbors of positive samples. However, the problem of false neighbors (i.e., neighbors that do not belong to the same category as the positive sample) is an objective but often overlooked challenge due to the query of neighbor samples without supervision information. In this paper, we present a simple self-supervised learning framework called Mixed Nearest-Neighbors for Self-Supervised Learning (MNN). MNN optimizes the influence of neighbor samples on the semantics of positive samples through an intuitive weighting approach and image mixture operations. The results demonstrate that MNN exhibits exceptional generalization performance and training efficiency on four benchmark datasets.
arxiv情報
著者 | Xianzhong Long,Chen Peng,Yun Li |
発行日 | 2023-11-13 14:21:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google