要約
この論文では、以前に学習したデータセットの精度を失うことなく、新しいキーポイントとポーズのバリエーションを既存のモデルに統合することを目的として、データセット間の人間の姿勢推定を継続的な学習タスクとして再定式化しています。
この定式化を、EWC、LFL、LwF など、壊滅的な忘却を軽減するための確立された正則化ベースの方法に対してベンチマークします。
さらに、重要度加重蒸留 (IWD) と呼ばれる新しい正則化手法を提案します。これは、層ごとの蒸留ペナルティと、以前に学習した知識の層の重要性に基づいた動的温度調整を導入することにより、従来の LwF を強化します。
これにより、継続的な学習において重要な安定性と可塑性のバランスを尊重した、新しいタスクへの制御された適応が可能になります。
3 つのデータセットにわたる広範な実験を通じて、私たちのアプローチが既存の正則化ベースの継続学習戦略よりも優れていることを実証しました。
IWD は、最先端の LwF メソッドと比較して平均 3.60% の改善を示しています。
この結果は、過去の知識を忘れずに新しいデータを使用してモデルを進化させる必要がある現実世界のアプリケーションの堅牢なフレームワークとして機能する、私たちの手法の可能性を強調しています。
要約(オリジナル)
This paper reformulates cross-dataset human pose estimation as a continual learning task, aiming to integrate new keypoints and pose variations into existing models without losing accuracy on previously learned datasets. We benchmark this formulation against established regularization-based methods for mitigating catastrophic forgetting, including EWC, LFL, and LwF. Moreover, we propose a novel regularization method called Importance-Weighted Distillation (IWD), which enhances conventional LwF by introducing a layer-wise distillation penalty and dynamic temperature adjustment based on layer importance for previously learned knowledge. This allows for a controlled adaptation to new tasks that respects the stability-plasticity balance critical in continual learning. Through extensive experiments across three datasets, we demonstrate that our approach outperforms existing regularization-based continual learning strategies. IWD shows an average improvement of 3.60\% over the state-of-the-art LwF method. The results highlight the potential of our method to serve as a robust framework for real-world applications where models must evolve with new data without forgetting past knowledge.
arxiv情報
著者 | Muhammad Saif Ullah Khan,Muhammad Ahmed Ullah Khan,Muhammad Zeshan Afzal,Didier Stricker |
発行日 | 2024-09-30 16:29:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google