Learning Sample Difficulty from Pre-trained Models for Reliable Prediction

要約

タイトル:事前学習済みモデルからの学習サンプルの難易度の学習による信頼性の高い予測の実現
要約:
-大規模な事前学習済みモデルは、様々なシナリオやアプリケーションで驚くべき成功を収めていますが、その下流のモデルの予測信頼性を向上させる方法は望ましくないほど未だに未開拓の領域です。
-さらに、現代のニューラルネットワークは、固有のサンプルの難易度やデータの不確実性にかかわらず、過度に自信があり過ぎる予測をしていることが分かっています。
-この問題に対処するために、サンプルの難易度に関するエントロピー正則化を利用して、大規模な事前学習済みモデルを用いて下流のモデルのトレーニングを導くことを提案しています。
-下流のトレーニングクラスに過度にフィットせず、大規模なデータセットに暴露された事前学習済みモデルを用いて、特徴空間ガウスモデリングと相対マハラノビス距離計算によって各トレーニングサンプルの難易度を計測することができます。
-重要なことは、サンプルの難易度に基づいて過度に自信を持った予測を自動的に罰することで、様々な難しいベンチマークで精度と不確実性のキャリブレーションを同時に改善し、信頼できる予測の競争力のある基準を常に上回る成果を出している。

要約(オリジナル)

Large-scale pre-trained models have achieved remarkable success in a variety of scenarios and applications, but how to leverage them to improve the prediction reliability of downstream models is undesirably under-explored. Moreover, modern neural networks have been found to be poorly calibrated and make overconfident predictions regardless of inherent sample difficulty and data uncertainty. To address this issue, we propose to utilize large-scale pre-trained models to guide downstream model training with sample difficulty-aware entropy regularization. Pre-trained models that have been exposed to large-scale datasets and do not overfit the downstream training classes enable us to measure each training sample difficulty via feature-space Gaussian modeling and relative Mahalanobis distance computation. Importantly, by adaptively penalizing overconfident prediction based on the sample’s difficulty, we simultaneously improve accuracy and uncertainty calibration on various challenging benchmarks, consistently surpassing competitive baselines for reliable prediction.

arxiv情報

著者 Peng Cui,Dan Zhang,Zhijie Deng,Yinpeng Dong,Jun Zhu
発行日 2023-04-20 07:29:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク