Arbitrary Order Meta-Learning with Simple Population-Based Evolution

要約

学習することを学ぶという概念であるメタ学習により、学習システムは新しいタスクを迅速かつ柔軟に解決できます。
通常、これには一連の外側ループ メタ パラメータの定義が含まれます。これは、一連の内側ループ パラメータの更新に使用されます。
ほとんどのメタ学習アプローチは、複雑で計算コストの高いバイレベル最適化スキームを使用して、これらのメタパラメーターを更新します。
理想的には、システムはメタ学習の複数の順序を実行する必要があります。
残念ながら、標準的なメタ学習手法は、メタ最適化手順が複雑になりすぎたり不安定になったりするため、これらの高次メタパラメーターには不適切であることがよくあります。
現実世界の進化で観察される高次メタ学習に着想を得て、単純な人口ベースの進化を使用すると、任意の高次メタパラメーターが暗黙的に最適化されることを示します。
まず、人口ベースの進化が単純な設定で任意の高次のメタパラメーターを暗黙的に最適化することを理論的に証明し、経験的に示します。
次に、最小限の自己参照パラメーター化を導入します。これにより、原則として、任意の順序のメタ学習が可能になります。
最後に、高次のメタ学習が時系列予測タスクのパフォーマンスを向上させることを示します。

要約(オリジナル)

Meta-learning, the notion of learning to learn, enables learning systems to quickly and flexibly solve new tasks. This usually involves defining a set of outer-loop meta-parameters that are then used to update a set of inner-loop parameters. Most meta-learning approaches use complicated and computationally expensive bi-level optimisation schemes to update these meta-parameters. Ideally, systems should perform multiple orders of meta-learning, i.e. to learn to learn to learn and so on, to accelerate their own learning. Unfortunately, standard meta-learning techniques are often inappropriate for these higher-order meta-parameters because the meta-optimisation procedure becomes too complicated or unstable. Inspired by the higher-order meta-learning we observe in real-world evolution, we show that using simple population-based evolution implicitly optimises for arbitrarily-high order meta-parameters. First, we theoretically prove and empirically show that population-based evolution implicitly optimises meta-parameters of arbitrarily-high order in a simple setting. We then introduce a minimal self-referential parameterisation, which in principle enables arbitrary-order meta-learning. Finally, we show that higher-order meta-learning improves performance on time series forecasting tasks.

arxiv情報

著者 Chris Lu,Sebastian Towers,Jakob Foerster
発行日 2023-03-16 16:55:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク