Continual Learning via Sequential Function-Space Variational Inference

要約

予測関数に対する逐次ベイジアン推論は、データのストリームから継続的に学習するための自然なフレームワークです。
ただし、これをニューラル ネットワークに適用することは、実際には困難であることが判明しています。
既存の手法の欠点に対処し、逐次関数空間変分推論として継続学習を定式化することによって導出される最適化目標を提案します。
ニューラル ネットワーク パラメーターを直接正規化する既存の方法とは対照的に、この目的により、トレーニング中にパラメーターを大幅に変更できるため、新しいタスクへの適応が向上します。
ニューラル ネットワークの予測を直接正則化する目的と比較して、提案された目的では、より柔軟な変分分布とより効果的な正則化が可能になります。
私たちは、一連のタスク シーケンスにわたって、逐次関数空間変分推論を介してトレーニングされたニューラル ネットワークが、関連する手法でトレーニングされたネットワークよりも高い予測精度を実現しながら、前のタスクからの代表点のセットの維持にあまり依存しないことを実証します。

要約(オリジナル)

Sequential Bayesian inference over predictive functions is a natural framework for continual learning from streams of data. However, applying it to neural networks has proved challenging in practice. Addressing the drawbacks of existing techniques, we propose an optimization objective derived by formulating continual learning as sequential function-space variational inference. In contrast to existing methods that regularize neural network parameters directly, this objective allows parameters to vary widely during training, enabling better adaptation to new tasks. Compared to objectives that directly regularize neural network predictions, the proposed objective allows for more flexible variational distributions and more effective regularization. We demonstrate that, across a range of task sequences, neural networks trained via sequential function-space variational inference achieve better predictive accuracy than networks trained with related methods while depending less on maintaining a set of representative points from previous tasks.

arxiv情報

著者 Tim G. J. Rudner,Freddie Bickford Smith,Qixuan Feng,Yee Whye Teh,Yarin Gal
発行日 2023-12-28 18:44:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク