要約
ほとんどのアプリケーションでは、ロボットは新しい環境に適応し、以前の情報を忘れることなく多機能である必要があります。
この要件は、ロボットが人間と共存して動作する現実のシナリオではさらに重要になります。
このような複雑な環境では、人間の行動は必然的に変化をもたらし、ロボットもそれに応じて適応する必要があります。
これらのダイナミクスに効果的に対処するには、継続的な学習の概念が不可欠であることがわかります。
これにより、学習モデルが既存の情報を維持しながら新しい知識を統合できるようになるだけでなく、多様なコンテキストからの洞察の取得も容易になります。
この側面は、ロボットが状況の変化に応じてナビゲートして適応しなければならないコンテキスト切り替えの問題に特に関連します。
私たちのアプローチでは、正則化とリハーサル技術の両方を組み込んだストリーミング グラフ ニューラル ネットワークを設計することで、コンテキスト ドリフトの問題に効果的に取り組む新しいアプローチを導入しています。
当社の Continual\_GTM モデルを使用すると、さまざまなコンテキストからの以前の知識を保持できるため、従来の微調整アプローチよりも効果的です。
私たちは、さまざまなシナリオにわたる時空間オブジェクトのダイナミクスを活用して、家庭環境内の人間のルーチンを予測する際の Continual\_GTM の有効性を評価しました。
要約(オリジナル)
In most applications, robots need to adapt to new environments and be multi-functional without forgetting previous information. This requirement gains further importance in real-world scenarios where robots operate in coexistence with humans. In these complex environments, human actions inevitably lead to changes, requiring robots to adapt accordingly. To effectively address these dynamics, the concept of continual learning proves essential. It not only enables learning models to integrate new knowledge while preserving existing information but also facilitates the acquisition of insights from diverse contexts. This aspect is particularly relevant to the issue of context-switching, where robots must navigate and adapt to changing situational dynamics. Our approach introduces a novel approach to effectively tackle the problem of context drifts by designing a Streaming Graph Neural Network that incorporates both regularization and rehearsal techniques. Our Continual\_GTM model enables us to retain previous knowledge from different contexts, and it is more effective than traditional fine-tuning approaches. We evaluated the efficacy of Continual\_GTM in predicting human routines within household environments, leveraging spatio-temporal object dynamics across diverse scenarios.
arxiv情報
| 著者 | Ermanno Bartoli,Fethiye Irmak Dogan,Iolanda Leite |
| 発行日 | 2024-11-08 13:12:17+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google