要約
この研究では、時系列、特に人間の動きを含むタスクを継続的に学習するためのモデルを提案しています。
最近提案された脳にヒントを得たリプレイ モデル (BI-R) を、生物学にヒントを得た条件付き時間変分オートエンコーダー (BI-CTVAE) を構築することで改善します。これは、クラス表現のために潜在的なガウス分布の混合をインスタンス化します。
モデルが異なるクラスのモーション シーケンスを生成する、新しい継続的学習生成 (CL2Gen) シナリオを調査します。
モデルの生成精度は、一連のタスクでテストされます。
すべてのアクション クラスを順次学習した後の人間のモーション データセットに対する BI-CTVAE の最終的な分類精度は 78% であり、リプレイなしを使用した場合よりも 63% 高く、最先端のオフライン トレーニングよりもわずか 5.4% 低いだけです。
GRU モデル。
要約(オリジナル)
This work proposes a model for continual learning on tasks involving temporal sequences, specifically, human motions. It improves on a recently proposed brain-inspired replay model (BI-R) by building a biologically-inspired conditional temporal variational autoencoder (BI-CTVAE), which instantiates a latent mixture-of-Gaussians for class representation. We investigate a novel continual-learning-to-generate (CL2Gen) scenario where the model generates motion sequences of different classes. The generative accuracy of the model is tested over a set of tasks. The final classification accuracy of BI-CTVAE on a human motion dataset after sequentially learning all action classes is 78%, which is 63% higher than using no-replay, and only 5.4% lower than a state-of-the-art offline trained GRU model.
arxiv情報
著者 | Joachim Ott,Shih-Chii Liu |
発行日 | 2023-03-15 14:31:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google