要約
自己教師あり学習は、意味的に類似したサンプルが近い埋め込み空間を学習することを目的としています。
対照的な学習方法は、サンプルのビューをまとめて、異なるサンプルを押しのけます。これは、拡張の意味的不変性を利用しますが、サンプル間の関係を無視します。
拡張の力をより有効に活用するために、意味的に類似したサンプルは類似した拡張ビューを持つ可能性が高いことを観察しました。
したがって、拡張ビューをサンプルの特別な説明と見なすことができます。
この論文では、このような記述を拡張分布としてモデル化し、拡張機能と呼びます。
拡張機能の類似性は、2 つのサンプルのビューがどの程度重複しているかを反映し、意味的な類似性に関連しています。
拡張機能の値を明示的に推定するための計算負荷なしで、主成分を学習するための対照的な損失と、データを埋め込むためのオンザフライの投影損失を使用して、拡張成分分析 (ACA) を提案します。
ACA は PCA による効率的な次元削減に等しく、低次元の埋め込みを抽出し、理論的にはサンプル間の拡張分布の類似性を維持します。
経験的な結果は、私たちの方法がさまざまなベンチマークでさまざまな従来の対照的な学習方法に対して競争力のある結果を達成できることを示しています。
要約(オリジナル)
Self-supervised learning aims to learn a embedding space where semantically similar samples are close. Contrastive learning methods pull views of samples together and push different samples away, which utilizes semantic invariance of augmentation but ignores the relationship between samples. To better exploit the power of augmentation, we observe that semantically similar samples are more likely to have similar augmented views. Therefore, we can take the augmented views as a special description of a sample. In this paper, we model such a description as the augmentation distribution and we call it augmentation feature. The similarity in augmentation feature reflects how much the views of two samples overlap and is related to their semantical similarity. Without computational burdens to explicitly estimate values of the augmentation feature, we propose Augmentation Component Analysis (ACA) with a contrastive-like loss to learn principal components and an on-the-fly projection loss to embed data. ACA equals an efficient dimension reduction by PCA and extracts low-dimensional embeddings, theoretically preserving the similarity of augmentation distribution between samples. Empirical results show our method can achieve competitive results against various traditional contrastive learning methods on different benchmarks.
arxiv情報
著者 | Lu Han,Han-Jia Ye,De-Chuan Zhan |
発行日 | 2023-02-02 12:40:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google