The Entropy Enigma: Success and Failure of Entropy Minimization

要約

エントロピー最小化 (EM) は、テスト時に新しいデータに直面した場合に、分類モデルの精度を高めるためによく使用されます。
EM は、分類器を最適化して上位予測クラスにさらに高い確率を割り当てる自己教師あり学習手法です。
この論文では、モデルを数ステップ適応させたときに EM が機能する理由と、多くのステップを適応させた後に最終的に失敗する理由を分析します。
まず、EM によってモデルがトレーニング画像の近くにテスト画像を埋め込み、それによってモデルの精度が向上することを示します。
多くの最適化ステップを経た後、EM はトレーニング画像の埋め込みから遠く離れたテスト画像をモデルに埋め込むようにします。これにより精度が低下します。
私たちの洞察に基づいて、ラベルにアクセスせずに、特定の任意のデータセットに対するモデルの精度を推定するという実際的な問題を解決する方法を紹介します。
私たちの方法では、エントロピーを最小限に抑えるためにモデルが最適化されるときに入力画像の埋め込みがどのように変化するかを調べることによって精度を推定します。
23 の困難なデータセットでの実験では、この方法で SoTA の絶対誤差の平均値が $5.75\%$ に設定され、このタスクに関して以前の SoTA よりも $29.62\%$ 改善されたことがわかりました。
私たちのコードは https://github.com/oripress/EntropyEnigma で入手できます。

要約(オリジナル)

Entropy minimization (EM) is frequently used to increase the accuracy of classification models when they’re faced with new data at test time. EM is a self-supervised learning method that optimizes classifiers to assign even higher probabilities to their top predicted classes. In this paper, we analyze why EM works when adapting a model for a few steps and why it eventually fails after adapting for many steps. We show that, at first, EM causes the model to embed test images close to training images, thereby increasing model accuracy. After many steps of optimization, EM makes the model embed test images far away from the embeddings of training images, which results in a degradation of accuracy. Building upon our insights, we present a method for solving a practical problem: estimating a model’s accuracy on a given arbitrary dataset without having access to its labels. Our method estimates accuracy by looking at how the embeddings of input images change as the model is optimized to minimize entropy. Experiments on 23 challenging datasets show that our method sets the SoTA with a mean absolute error of $5.75\%$, an improvement of $29.62\%$ over the previous SoTA on this task. Our code is available at https://github.com/oripress/EntropyEnigma

arxiv情報

著者 Ori Press,Ravid Shwartz-Ziv,Yann LeCun,Matthias Bethge
発行日 2024-05-08 12:26:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク