Preventing Collapse in Contrastive Learning with Orthonormal Prototypes (CLOP)

要約

対照学習は深層学習の強力な方法として登場し、異なる分布からのサンプルを対照することによって効果的な表現を学習することに優れています。
ただし、埋め込みが低次元の空間に収束するニューラル崩壊は、特に半教師ありおよび自己教師ありの設定において、重大な課題を引き起こします。
この論文では、まず、コサイン類似度メトリックのみに依存する対比損失に対する大きな学習率の影響を理論的に分析し、この崩壊を緩和するための理論的限界を導き出します。
{これらの洞察に基づいて、クラス埋め込み間の直交線形部分空間の形成を促進することで神経崩壊を防ぐように設計された新しい半教師あり損失関数である CLOP を提案します。} シンプレックス ETF 構造を強制する以前のアプローチとは異なり、CLOP は部分空間の分離に焦点を当てています。
、より識別可能な埋め込みにつながります。
実際のデータセットと合成データセットに対する広範な実験を通じて、CLOP がパフォーマンスを向上させ、さまざまな学習率やバッチ サイズにわたって安定性が向上することを実証しました。

要約(オリジナル)

Contrastive learning has emerged as a powerful method in deep learning, excelling at learning effective representations through contrasting samples from different distributions. However, neural collapse, where embeddings converge into a lower-dimensional space, poses a significant challenge, especially in semi-supervised and self-supervised setups. In this paper, we first theoretically analyze the effect of large learning rates on contrastive losses that solely rely on the cosine similarity metric, and derive a theoretical bound to mitigate this collapse. {Building on these insights, we propose CLOP, a novel semi-supervised loss function designed to prevent neural collapse by promoting the formation of orthogonal linear subspaces among class embeddings.} Unlike prior approaches that enforce a simplex ETF structure, CLOP focuses on subspace separation, leading to more distinguishable embeddings. Through extensive experiments on real and synthetic datasets, we demonstrate that CLOP enhances performance, providing greater stability across different learning rates and batch sizes.

arxiv情報

著者 Huanran Li,Manh Nguyen,Daniel Pimentel-Alarcón
発行日 2024-10-07 16:07:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク