Context-Aware Selective Label Smoothing for Calibrating Sequence Recognition Model

要約

シーケンシャル データ (つまり、シーンのテキストと音声) 認識に関するディープ ニューラル ネットワーク (DNN) の成功にもかかわらず、主にクロス エントロピー損失を伴うトレーニングでのオーバーフィッティングによる過信の問題に悩まされており、決定を下す可能性があります。
信頼性を低下させます。
この問題に対する有効な解決策の 1 つとして、信頼度調整が最近提案されました。
それにもかかわらず、既存の信頼度調整方法の大部分は非連続データを対象としています。これは、シーケンスの固有のコンテキスト依存性またはクラス固有の統計的事前確率がめったに利用されないため、連続データに直接適用すると制限されます。
最後に、連続データを調整するための Context-Aware Selective Label Smoothing (CASLS) メソッドを提案します。
提案された CASLS は、シーケンス内のコンテキスト依存性を完全に活用して、異なるクラスにわたるコンテキスト予測統計の混同行列を構築します。
次に、クラス固有のエラー率を使用して平滑化強度の重みを調整し、適応キャリブレーションを実現します。
シーンテキスト認識や音声認識などのシーケンス認識タスクに関する実験結果は、私たちの方法が最先端のパフォーマンスを達成できることを示しています。

要約(オリジナル)

Despite the success of deep neural network (DNN) on sequential data (i.e., scene text and speech) recognition, it suffers from the over-confidence problem mainly due to overfitting in training with the cross-entropy loss, which may make the decision-making less reliable. Confidence calibration has been recently proposed as one effective solution to this problem. Nevertheless, the majority of existing confidence calibration methods aims at non-sequential data, which is limited if directly applied to sequential data since the intrinsic contextual dependency in sequences or the class-specific statistical prior is seldom exploited. To the end, we propose a Context-Aware Selective Label Smoothing (CASLS) method for calibrating sequential data. The proposed CASLS fully leverages the contextual dependency in sequences to construct confusion matrices of contextual prediction statistics over different classes. Class-specific error rates are then used to adjust the weights of smoothing strength in order to achieve adaptive calibration. Experimental results on sequence recognition tasks, including scene text recognition and speech recognition, demonstrate that our method can achieve the state-of-the-art performance.

arxiv情報

著者 Shuangping Huang,Yu Luo,Zhenzhou Zhuang,Jin-Gang Yu,Mengchao He,Yongpan Wang
発行日 2023-03-13 09:27:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク