Uncertainty in Contrastive Learning: On the Predictability of Downstream Performance

要約

今日の最先端の深層学習モデルのいくつかの優れたパフォーマンスは、大規模なデータセットでの大規模な(自己)教師あり対照的な事前トレーニングにある程度起因しています。
対照的な学習では、ネットワークは正(類似)と負(非類似)のデータポイントのペアで提示され、各データポイントの埋め込みベクトル、つまり、さまざまなダウンストリームタスク用にさらに微調整できる表現を見つけるようにトレーニングされます。
これらのモデルを重要な意思決定システムに安全に展開するには、不確実性または信頼性の尺度をモデルに装備することが重要です。
ただし、対照的なモデルをトレーニングするペアワイズの性質と、出力(抽象的な埋め込みベクトル)に絶対ラベルがないため、従来の不確実性推定手法をそのようなモデルに適応させることは簡単ではありません。
この作業では、そのような表現の不確実性を意味のある方法で単一のデータポイントに対して定量化できるかどうかを調査します。
言い換えると、事前にトレーニングされた埋め込みから直接、特定のデータポイントのダウンストリームパフォーマンスが予測可能かどうかを調査します。
この目標は、埋め込みスペースでのトレーニングデータの分布を直接推定し、表現のローカルな一貫性を考慮することで達成できることを示します。
私たちの実験は、埋め込みベクトルのこの不確実性の概念は、しばしばその下流の精度と強く相関することを示しています。

要約(オリジナル)

The superior performance of some of today’s state-of-the-art deep learning models is to some extent owed to extensive (self-)supervised contrastive pretraining on large-scale datasets. In contrastive learning, the network is presented with pairs of positive (similar) and negative (dissimilar) datapoints and is trained to find an embedding vector for each datapoint, i.e., a representation, which can be further fine-tuned for various downstream tasks. In order to safely deploy these models in critical decision-making systems, it is crucial to equip them with a measure of their uncertainty or reliability. However, due to the pairwise nature of training a contrastive model, and the lack of absolute labels on the output (an abstract embedding vector), adapting conventional uncertainty estimation techniques to such models is non-trivial. In this work, we study whether the uncertainty of such a representation can be quantified for a single datapoint in a meaningful way. In other words, we explore if the downstream performance on a given datapoint is predictable, directly from its pre-trained embedding. We show that this goal can be achieved by directly estimating the distribution of the training data in the embedding space and accounting for the local consistency of the representations. Our experiments show that this notion of uncertainty for an embedding vector often strongly correlates with its downstream accuracy.

arxiv情報

著者 Shervin Ardeshir,Navid Azizan
発行日 2022-07-19 15:44:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, eess.IV, stat.ML パーマリンク