Can Transformers Learn Optimal Filtering for Unknown Systems?

要約

トランスフォーマーは、自然言語処理において目覚ましい成功を収めています。
ただし、動的システムで発生する問題に関しては、その可能性はほとんど解明されていません。
この研究では、過去のすべての出力予測を使用して出力予測を生成する変圧器を使用した最適な出力推定問題を調査します。
以前のディストリビューションから得られたさまざまなシステムを使用してトランスフォーマーをトレーニングし、同じディストリビューションのこれまでに見たことのないシステムでそのパフォーマンスを評価します。
その結果、得られた変換器は、コンテキスト内で学習し、さまざまなシステムに迅速に適応して適切に予測する予測アルゴリズムのように機能します。したがって、これをメタ出力予測器 (MOP) と呼びます。
MOP は、モデルにアクセスできない場合でも、ほとんどの線形動的システムに対して、カルマン フィルターに基づく最適出力推定器のパフォーマンスと一致します。
私たちは広範な数値実験を通じて、MOP が非 i.i.d. を使用する困難なシナリオでも良好に機能することを観察しました。
ノイズ、時変ダイナミクス、未知のパラメーターを持つクアローター システムのような非線形ダイナミクス。
この観察をさらに裏付けるために、論文の後半では、MOP のパフォーマンスに関する統計的保証を提供し、テスト時に望ましい超過リスクを達成するために必要なトレーニング量を定量化します。
最後に、MOP がうまく機能しない 2 つのクラスの問題を特定することで、MOP のいくつかの限界を指摘し、制御と推定に変圧器を使用する際の注意の必要性を強調します。

要約(オリジナル)

Transformers have demonstrated remarkable success in natural language processing; however, their potential remains mostly unexplored for problems arising in dynamical systems. In this work, we investigate the optimal output estimation problem using transformers, which generate output predictions using all the past ones. We train the transformer using various systems drawn from a prior distribution and then evaluate its performance on previously unseen systems from the same distribution. As a result, the obtained transformer acts like a prediction algorithm that learns in-context and quickly adapts to and predicts well for different systems – thus we call it meta-output-predictor (MOP). MOP matches the performance of the optimal output estimator, based on Kalman filter, for most linear dynamical systems even though it does not have access to a model. We observe via extensive numerical experiments that MOP also performs well in challenging scenarios with non-i.i.d. noise, time-varying dynamics, and nonlinear dynamics like a quadrotor system with unknown parameters. To further support this observation, in the second part of the paper, we provide statistical guarantees on the performance of MOP and quantify the required amount of training to achieve a desired excess risk during test-time. Finally, we point out some limitations of MOP by identifying two classes of problems MOP fails to perform well, highlighting the need for caution when using transformers for control and estimation.

arxiv情報

著者 Haldun Balim,Zhe Du,Samet Oymak,Necmiye Ozay
発行日 2023-08-16 17:52:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY パーマリンク