Memory-Based Meta-Learning on Non-Stationary Distributions

要約

メモリベースのメタ学習は、ベイズ最適予測子を近似するための手法です。
かなり一般的な条件下では、対数損失によって測定される逐次予測誤差を最小限に抑えると、暗黙的なメタ学習につながります。
この研究の目的は、この解釈が現在のシーケンス予測モデルとトレーニング体制によってどこまで実現できるかを調査することです。
焦点は、観測されていない切り替え点を持つ区分的定常情報源にあり、おそらく部分的に観測可能な環境における自然言語と行動観察シーケンスの重要な特徴を捉えています。
Transformer、LSTM、RNN を含むさまざまなタイプのメモリベースのニューラル モデルが、既知のベイズ最適化アルゴリズムを正確に近似することを学習し、潜在的なスイッチング ポイントとデータ分布を支配する潜在的なパラメーターに対してベイズ推論を実行しているかのように動作できることを示します。
各セグメント内で。

要約(オリジナル)

Memory-based meta-learning is a technique for approximating Bayes-optimal predictors. Under fairly general conditions, minimizing sequential prediction error, measured by the log loss, leads to implicit meta-learning. The goal of this work is to investigate how far this interpretation can be realized by current sequence prediction models and training regimes. The focus is on piecewise stationary sources with unobserved switching-points, which arguably capture an important characteristic of natural language and action-observation sequences in partially observable environments. We show that various types of memory-based neural models, including Transformers, LSTMs, and RNNs can learn to accurately approximate known Bayes-optimal algorithms and behave as if performing Bayesian inference over the latent switching-points and the latent parameters governing the data distribution within each segment.

arxiv情報

著者 Tim Genewein,Grégoire Delétang,Anian Ruoss,Li Kevin Wenliang,Elliot Catt,Vincent Dutordoir,Jordi Grau-Moya,Laurent Orseau,Marcus Hutter,Joel Veness
発行日 2023-05-25 17:53:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク