要約
意思決定の場面で機械学習アルゴリズムを実装する際の重要な要素は、モデルの精度だけでなく、その信頼レベルも重要です。
分類問題におけるモデルの信頼レベルは、便宜上、ソフトマックス関数の出力ベクトルによって与えられることがよくあります。
ただし、これらの値は、実際に予想されるモデルの信頼度から大きく乖離していることが知られています。
この問題はモデル キャリブレーションと呼ばれ、広範囲に研究されています。
この課題に取り組むための最も簡単な手法の 1 つは、焦点損失です。これは、1 つの正のパラメーターを導入することによってクロスエントロピーを一般化したものです。
アイデアの単純さと形式化のため、多くの関連研究が存在しますが、その動作の理論的分析はまだ不十分です。
この研究では、この関数を幾何学的に再解釈することで焦点損失の挙動を理解することを目的としています。
私たちの分析は、焦点損失により、モデルのトレーニング時に損失曲面の曲率が減少することを示唆しています。
これは、曲率がモデルのキャリブレーションを達成する上で重要な要素の 1 つである可能性があることを示しています。
この推測を裏付ける数値実験を計画し、焦点損失の挙動と校正性能と曲率の関係を明らかにします。
要約(オリジナル)
The key factor in implementing machine learning algorithms in decision-making situations is not only the accuracy of the model but also its confidence level. The confidence level of a model in a classification problem is often given by the output vector of a softmax function for convenience. However, these values are known to deviate significantly from the actual expected model confidence. This problem is called model calibration and has been studied extensively. One of the simplest techniques to tackle this task is focal loss, a generalization of cross-entropy by introducing one positive parameter. Although many related studies exist because of the simplicity of the idea and its formalization, the theoretical analysis of its behavior is still insufficient. In this study, our objective is to understand the behavior of focal loss by reinterpreting this function geometrically. Our analysis suggests that focal loss reduces the curvature of the loss surface in training the model. This indicates that curvature may be one of the essential factors in achieving model calibration. We design numerical experiments to support this conjecture to reveal the behavior of focal loss and the relationship between calibration performance and curvature.
arxiv情報
著者 | Masanari Kimura,Hiroki Naganuma |
発行日 | 2024-05-01 10:53:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google