要約
継続的な適応は、一般的な自律エージェントにとって不可欠です。
たとえば、スキルのレパートリーで前提とされた家庭用ロボットは、各世帯に固有の目に見えないタスクに適応する必要があります。
これにより動機付けられ、言語モデルのパラメーター効率の高い微調整に基づいて、以前の作品は軽量アダプターを探索して、前提条件のポリシーを適応させました。
ただし、これらのアプローチはタスクの学習を個別に扱い、タスク間の知識移転を制限します。
このホワイトペーパーでは、オンラインメタ学習アダプター(OMLA)を提案します。
アダプターを直接適用する代わりに、OMLAは、以前に学習したタスクから、新しいメタラーニング目標を通じて現在の学習タスクへの知識移転を促進できます。
シミュレートされた環境と現実世界の両方の環境での広範な実験は、オムラがベースラインの方法と比較してより良い適応パフォーマンスにつながる可能性があることを示しています。
プロジェクトリンク:https://ricky-zhu.github.io/omla/。
要約(オリジナル)
Continual adaptation is essential for general autonomous agents. For example, a household robot pretrained with a repertoire of skills must still adapt to unseen tasks specific to each household. Motivated by this, building upon parameter-efficient fine-tuning in language models, prior works have explored lightweight adapters to adapt pretrained policies, which can preserve learned features from the pretraining phase and demonstrate good adaptation performances. However, these approaches treat task learning separately, limiting knowledge transfer between tasks. In this paper, we propose Online Meta-Learned adapters (OMLA). Instead of applying adapters directly, OMLA can facilitate knowledge transfer from previously learned tasks to current learning tasks through a novel meta-learning objective. Extensive experiments in both simulated and real-world environments demonstrate that OMLA can lead to better adaptation performances compared to the baseline methods. The project link: https://ricky-zhu.github.io/OMLA/.
arxiv情報
著者 | Ruiqi Zhu,Endong Sun,Guanhe Huang,Oya Celiktutan |
発行日 | 2025-03-24 13:55:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google