要約
他の (関連する) タスクから収集した以前の経験を利用して新しいタスクを学習することは、あらゆるインテリジェント システムの中核的な特性です。
勾配ベースのメタ学習、特に MAML とその亜種は、この目標を達成するための実行可能なソリューションとして浮上しています。
MAML が直面する問題の 1 つは、メタ勾配を計算するために必要な計算とメモリの負荷です。
我々は、他の 1 次バリアントとは異なり、MAML の目的の定常点に収束することを証明する MAML の新しい 1 次バリアントを提案します。
また、MAML の目的が以前の研究で想定されていた滑らかさの仮定を満たしていないことも示します。
代わりに、平滑度定数がメタ勾配のノルムとともに増加することを示します。これは理論的には、以前の研究で使用された単純な勾配法と比較して、正規化勾配法またはクリップ勾配法の使用を示唆しています。
合成実験で理論を検証します。
要約(オリジナル)
Learning new tasks by drawing on prior experience gathered from other (related) tasks is a core property of any intelligent system. Gradient-based meta-learning, especially MAML and its variants, has emerged as a viable solution to accomplish this goal. One problem MAML encounters is its computational and memory burdens needed to compute the meta-gradients. We propose a new first-order variant of MAML that we prove converges to a stationary point of the MAML objective, unlike other first-order variants. We also show that the MAML objective does not satisfy the smoothness assumption assumed in previous works; we show instead that its smoothness constant grows with the norm of the meta-gradient, which theoretically suggests the use of normalized or clipped-gradient methods compared to the plain gradient method used in previous works. We validate our theory on a synthetic experiment.
arxiv情報
著者 | El Mahdi Chayti,Martin Jaggi |
発行日 | 2024-09-05 16:37:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google