要約
対照学習は、データ増強を活用して、大きなラベル付きデータセットに依存せずに特徴表現を開発します。
しかし、その経験的な成功にもかかわらず、対照学習の理論的基礎は不完全なままであり、多くの本質的な保証は、特に最適なスペクトル対照喪失解の神経近似性に関する実現可能性の仮定を残しました。
この作業では、増強グラフLaplacianの点ごととスペクトルの一貫性を分析することにより、これらの制限を克服します。
データ生成とグラフ接続のための特定の条件下で、増強されたデータセットサイズが増加するにつれて、ラプラシアンの増強グラフは、天然データマニホールドの加重ラプラスベルトラミ演算子に収束することを確立します。
これらの一貫性の結果により、グラフラプラシアンスペクトルがマニホールドジオメトリを効果的にキャプチャすることが保証されます。
その結果、それらは、現在のパラダイムでの実現可能性の仮定を直接解決し、神経近似性を確立するための堅牢なフレームワークに道を譲ります。
要約(オリジナル)
Contrastive learning leverages data augmentation to develop feature representation without relying on large labeled datasets. However, despite its empirical success, the theoretical foundations of contrastive learning remain incomplete, with many essential guarantees left unaddressed, particularly the realizability assumption concerning neural approximability of an optimal spectral contrastive loss solution. In this work, we overcome these limitations by analyzing the pointwise and spectral consistency of the augmentation graph Laplacian. We establish that, under specific conditions for data generation and graph connectivity, as the augmented dataset size increases, the augmentation graph Laplacian converges to a weighted Laplace-Beltrami operator on the natural data manifold. These consistency results ensure that the graph Laplacian spectrum effectively captures the manifold geometry. Consequently, they give way to a robust framework for establishing neural approximability, directly resolving the realizability assumption in a current paradigm.
arxiv情報
著者 | Chenghui Li,A. Martina Neuman |
発行日 | 2025-02-06 18:55:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google