Accelerated primal-dual methods with enlarged step sizes and operator learning for nonsmooth optimal control problems

要約

偏微分方程式 (PDE) 制約を伴う非滑らかな最適制御問題の一般的なクラスを検討します。これは、非滑らかな目的関数と、離散化後に結果として生じる高次元の悪条件システムのため、非常に困難です。
私たちは、主双対法の適用に焦点を当てています。この方法では、異なるタイプの変数を個別に処理できるため、各反復での主な計算には 2 つの偏微分方程式を解くだけで済みます。
私たちの目標は、より大きなステップ サイズまたはオペレーター学習テクニックのいずれかを使用して、主双対法を高速化することです。
より大きなステップ サイズで加速された主双対法の場合、元の主双対法を単純かつ普遍的な方法で数値的に加速しながら、その収束を厳密に証明することができます。
オペレーターの学習を加速するために、関連する PDE のディープ ニューラル ネットワーク代理モデルを構築します。
ニューラル オペレーターを学習すると、PDE を解くにはニューラル ネットワークを順方向にパスするだけで済むため、計算コストが大幅に削減されます。
演算子学習による高速化された主双対法は、メッシュフリーで数値効率が高く、さまざまな種類の偏微分方程式に拡張可能です。
これら 2 つの手法の加速効果は、いくつかの予備的な数値結果によって有望に検証されています。

要約(オリジナル)

We consider a general class of nonsmooth optimal control problems with partial differential equation (PDE) constraints, which are very challenging due to its nonsmooth objective functionals and the resulting high-dimensional and ill-conditioned systems after discretization. We focus on the application of a primal-dual method, with which different types of variables can be treated individually and thus its main computation at each iteration only requires solving two PDEs. Our target is to accelerate the primal-dual method with either larger step sizes or operator learning techniques. For the accelerated primal-dual method with larger step sizes, its convergence can be still proved rigorously while it numerically accelerates the original primal-dual method in a simple and universal way. For the operator learning acceleration, we construct deep neural network surrogate models for the involved PDEs. Once a neural operator is learned, solving a PDE requires only a forward pass of the neural network, and the computational cost is thus substantially reduced. The accelerated primal-dual method with operator learning is mesh-free, numerically efficient, and scalable to different types of PDEs. The acceleration effectiveness of these two techniques is promisingly validated by some preliminary numerical results.

arxiv情報

著者 Yongcun Song,Xiaoming Yuan,Hangrui Yue
発行日 2023-07-25 17:15:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, math.OC パーマリンク