要約
継続学習 (CL) は、最初から再トレーニングすることなく、さまざまなタスクにわたって継続的に知識を蓄積できる機械学習モデルを構築することを目的とした研究分野です。
以前の研究では、事前トレーニング グラフ ニューラル ネットワーク (GNN) が微調整後に負の伝達を引き起こす可能性があることが示されています (Hu et al., 2020)。この設定は CL と密接に関連しています。
したがって、私たちは継続グラフ学習 (CGL) 設定での GNN の学習に焦点を当てます。
我々は、時空間グラフのための最初の連続グラフ学習ベンチマークを提案し、それをこの新しい設定でよく知られた CGL 手法のベンチマークに使用します。
このベンチマークは、スケルトンベースのアクション認識用の N-UCLA および NTU-RGB+D データセットに基づいています。
標準的なパフォーマンス指標のベンチマークを超えて、CGL メソッドのクラスとタスクの順序の感度、つまり各クラス/タスクのパフォーマンスに対する学習順序の影響、およびさまざまな幅と深さのバックボーン GNN を使用した CGL メソッドのアーキテクチャの感度を研究します。
我々は、タスク順序のロバスト手法が依然としてクラス順序に敏感である可能性があることを明らかにし、CL のアーキテクチャの感度に関する以前の経験的観察と矛盾する結果を観察しました。
要約(オリジナル)
Continual learning (CL) is the research field that aims to build machine learning models that can accumulate knowledge continuously over different tasks without retraining from scratch. Previous studies have shown that pre-training graph neural networks (GNN) may lead to negative transfer (Hu et al., 2020) after fine-tuning, a setting which is closely related to CL. Thus, we focus on studying GNN in the continual graph learning (CGL) setting. We propose the first continual graph learning benchmark for spatio-temporal graphs and use it to benchmark well-known CGL methods in this novel setting. The benchmark is based on the N-UCLA and NTU-RGB+D datasets for skeleton-based action recognition. Beyond benchmarking for standard performance metrics, we study the class and task-order sensitivity of CGL methods, i.e., the impact of learning order on each class/task’s performance, and the architectural sensitivity of CGL methods with backbone GNN at various widths and depths. We reveal that task-order robust methods can still be class-order sensitive and observe results that contradict previous empirical observations on architectural sensitivity in CL.
arxiv情報
著者 | Wei Wei,Tom De Schepper,Kevin Mets |
発行日 | 2024-01-31 18:20:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google