EXACT: How to Train Your Accuracy

要約

分類タスクは通常、精度の観点から評価されます。
ただし、精度は不連続であり、最急降下法を使用して直接最適化することはできません。
一般的な方法では、クロスエントロピー、ヒンジ損失、またはその他の代理損失が最小限に抑えられ、最適な結果が得られない可能性があります。
本論文では、モデルの出力に確率論を導入し、期待される精度、すなわち確率論的モデルの精度を最適化することにより、新しい最適化フレームワークを提案します。
画像分類に関する広範な実験は、提案された最適化方法が広く使用されている分類損失の強力な代替手段であることを示しています。

要約(オリジナル)

Classification tasks are usually evaluated in terms of accuracy. However, accuracy is discontinuous and cannot be directly optimized using gradient ascent. Popular methods minimize cross-entropy, Hinge loss, or other surrogate losses, which can lead to suboptimal results. In this paper, we propose a new optimization framework by introducing stochasticity to a model’s output and optimizing expected accuracy, i.e. accuracy of the stochastic model. Extensive experiments on image classification show that the proposed optimization method is a powerful alternative to widely used classification losses.

arxiv情報

著者 Ivan Karpukhin,Stanislav Dereka,Sergey Kolesnikov
発行日 2022-06-22 13:52:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク