Uncertainties of Latent Representations in Computer Vision

要約

不確実性の定量化は、信頼できる機械学習の重要な柱です。
これにより、機械学習モデルが十分な証拠を検出した場合のみ予測したり、異常なデータを破棄したり、エラーが発生する可能性がある場合に警告を発したりするなど、安全でない入力に対して安全な反応が可能になります。
これは、医療画像分類や自動運転車などの安全性が重要な分野では特に重要です。
不確実性を定量化する手法が数多く提案され、パフォーマンス ベンチマークでますます高いスコアを達成しているにもかかわらず、実際には不確実性の推定が敬遠されることがよくあります。
多くの機械学習プロジェクトは、不確実性の推定を伴わない事前トレーニング済みの潜在表現から始まります。
不確実性については専門家が独自にトレーニングする必要がありますが、これは困難でリソースを大量に消費することで知られています。
この論文では、不確実性の推定値を事前学習済みのコンピュータ ビジョン モデルの潜在表現ベクトルに追加することで、不確実性の推定値に簡単にアクセスできるようにしています。
Monte-Carlo InfoNCE (MCInfoNCE) や損失予測など、確率論と決定理論に根ざしたアプローチを提案することに加えて、理論的問題と経験的問題の両方を掘り下げます。
我々は、観察不可能な潜在表現に関するこれらの観察不可能な不確実性が実際に証明可能に正しいことを示します。
また、これらの観察不可能なものを観察可能なグラウンドトゥルースと比較するための不確実性を考慮した表現学習 (URL) ベンチマークも提供します。
最後に、ゼロショット方式で目に見えないデータセットに転送する大規模なコンピューター ビジョン モデルで軽量の表現の不確実性を事前トレーニングするために、調査結果をまとめます。
私たちの発見は、潜在変数の不確実性についての現在の理論的理解を促進するだけでなく、分野内外の将来の研究者が不確実性の定量化にアクセスできるようになり、単純だが信頼できる機械学習を可能にします。

要約(オリジナル)

Uncertainty quantification is a key pillar of trustworthy machine learning. It enables safe reactions under unsafe inputs, like predicting only when the machine learning model detects sufficient evidence, discarding anomalous data, or emitting warnings when an error is likely to be inbound. This is particularly crucial in safety-critical areas like medical image classification or self-driving cars. Despite the plethora of proposed uncertainty quantification methods achieving increasingly higher scores on performance benchmarks, uncertainty estimates are often shied away from in practice. Many machine learning projects start from pretrained latent representations that come without uncertainty estimates. Uncertainties would need to be trained by practitioners on their own, which is notoriously difficult and resource-intense. This thesis makes uncertainty estimates easily accessible by adding them to the latent representation vectors of pretrained computer vision models. Besides proposing approaches rooted in probability and decision theory, such as Monte-Carlo InfoNCE (MCInfoNCE) and loss prediction, we delve into both theoretical and empirical questions. We show that these unobservable uncertainties about unobservable latent representations are indeed provably correct. We also provide an uncertainty-aware representation learning (URL) benchmark to compare these unobservables against observable ground-truths. Finally, we compile our findings to pretrain lightweight representation uncertainties on large-scale computer vision models that transfer to unseen datasets in a zero-shot manner. Our findings do not only advance the current theoretical understanding of uncertainties over latent variables, but also facilitate the access to uncertainty quantification for future researchers inside and outside the field, enabling straightforward but trustworthy machine learning.

arxiv情報

著者 Michael Kirchhof
発行日 2024-08-26 14:02:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク