Neural Operators for PDE Backstepping Control of First-Order Hyperbolic PIDE with Recycle and Delay

要約

最近導入された PDE 制御用の DeepONet 演算子学習フレームワークは、基本的な双曲偏微分方程式および放物線偏微分方程式の結果から、状態とシステム出力または入力の両方の遅延を伴う高度な双曲クラスまで拡張されています。
PDE バックステッピング設計は、非線形演算子の出力であるゲイン関数を生成し、空間領域上の関数を空間領域上の関数にマッピングします。このゲイン生成演算子の入力は PDE の係数です。
演算子は、DeepONet ニューラル ネットワークを使用して、任意に厳密な精度で近似されます。
この近似理論の結果を無限次元で生成すると、近似ゲインを使用するフィードバックの下で閉ループでの安定性が確立されます。
フルステートフィードバックの下でそのような結果を提供することに加えて、DeepONet 近似オブザーバーと出力フィードバック則も開発し、ニューラルオペレーター近似の下で独自の安定化特性を証明します。
数値シミュレーションを使用して理論的結果を示し、数値偏微分方程式解法を DeepONet に置き換えることで 2 桁の数値的労力の節約を定量化します。

要約(オリジナル)

The recently introduced DeepONet operator-learning framework for PDE control is extended from the results for basic hyperbolic and parabolic PDEs to an advanced hyperbolic class that involves delays on both the state and the system output or input. The PDE backstepping design produces gain functions that are outputs of a nonlinear operator, mapping functions on a spatial domain into functions on a spatial domain, and where this gain-generating operator’s inputs are the PDE’s coefficients. The operator is approximated with a DeepONet neural network to a degree of accuracy that is provably arbitrarily tight. Once we produce this approximation-theoretic result in infinite dimension, with it we establish stability in closed loop under feedback that employs approximate gains. In addition to supplying such results under full-state feedback, we also develop DeepONet-approximated observers and output-feedback laws and prove their own stabilizing properties under neural operator approximations. With numerical simulations we illustrate the theoretical results and quantify the numerical effort savings, which are of two orders of magnitude, thanks to replacing the numerical PDE solving with the DeepONet.

arxiv情報

著者 Jie Qi,Jing Zhang,Miroslav Krstic
発行日 2024-06-14 15:17:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SY, eess.SY, math.AP, math.OC パーマリンク