要約
継続学習 (CL) は、非定常データ ストリーム全体でモデルの予測パフォーマンスを最大化することに焦点を当てています。
残念ながら、CL モデルは以前の知識を忘れる傾向があるため、データ ストリーム全体で共同トレーニングされたオフライン モデルと比較するとパフォーマンスが低下することがよくあります。
どの CL モデルも最終的には間違いを犯すことを考えると、調整された CL モデル、つまり予測を行う際に信頼性を確実に伝えることができるモデルを構築することが非常に重要です。
モデルのキャリブレーションは機械学習における活発な研究トピックですが、CL ではまだ適切に調査されていません。
我々は、CLにおけるキャリブレーションアプローチの挙動に関する最初の実証的研究を提供し、CL戦略が本質的にキャリブレーションされたモデルを学習しないことを示しています。
この問題を軽減するために、さまざまなベンチマークおよび CL 戦略にわたって後処理キャリブレーション方法のパフォーマンスを向上させる継続的なキャリブレーション アプローチを設計します。
CL は必ずしも完璧な予測モデルを必要とするわけではありませんが、むしろ信頼できる予測モデルから恩恵を受けることができます。
私たちは、継続的校正に関する研究がこの方向への第一歩となると信じています。
要約(オリジナル)
Continual Learning (CL) focuses on maximizing the predictive performance of a model across a non-stationary stream of data. Unfortunately, CL models tend to forget previous knowledge, thus often underperforming when compared with an offline model trained jointly on the entire data stream. Given that any CL model will eventually make mistakes, it is of crucial importance to build calibrated CL models: models that can reliably tell their confidence when making a prediction. Model calibration is an active research topic in machine learning, yet to be properly investigated in CL. We provide the first empirical study of the behavior of calibration approaches in CL, showing that CL strategies do not inherently learn calibrated models. To mitigate this issue, we design a continual calibration approach that improves the performance of post-processing calibration methods over a wide range of different benchmarks and CL strategies. CL does not necessarily need perfect predictive models, but rather it can benefit from reliable predictive models. We believe our study on continual calibration represents a first step towards this direction.
arxiv情報
著者 | Lanpei Li,Elia Piccoli,Andrea Cossu,Davide Bacciu,Vincenzo Lomonaco |
発行日 | 2024-04-11 14:59:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google