Learning robust marking policies for adaptive mesh refinement

要約

この作業では、標準の適応有限要素法 (AFEM) で行われるマーキングの決定を再検討します。
経験上、単純なマーキング ポリシーは、適応メッシュ リファインメント (AMR) のための計算リソースの非効率的な使用につながることがわかっています。
したがって、AFEM を実際に使用するには、マーキング サブルーチンに適切なパラメータを設定するために、アドホックまたは時間のかかるオフライン パラメータ調整が必要になることがよくあります。
これらの実際的な懸念に対処するために、私たちは AMR をマルコフ決定プロセスとして再構築しました。このプロセスでは、専門家ユーザーによる事前調整を必要とせずに、実行時に改良パラメータをオンザフライで選択できます。
この新しいパラダイムでは、強化学習の方法を使用して最適化できるマーキング ポリシーを介して、改良パラメーターも適応的に選択されます。
私たちはポアソン方程式を使用して $h$- および $hp$-refinement ベンチマーク問題に関する手法を実証しており、私たちの実験は、多くの古典的な AFEM アプリケーションでは優れたマーキング ポリシーがまだ発見されていないことを示唆しています。
さらに、この研究からの予想外の観察は、偏微分方程式の 1 つのファミリーでトレーニングされたマーキング ポリシーが、トレーニング ファミリーのはるか外側の問題でも十分に機能するほど堅牢である場合があるということです。
説明のために、リエントラントコーナーが 1 つだけある 2D ドメインでトレーニングされた単純な $hp$-refinement ポリシーが、パフォーマンスを大幅に低下させることなく、はるかに複雑な 2D ドメイン、さらには 3D ドメインに展開できることを示します。
複製と広範な採用のために、私たちはこの作業に私たちのメソッドのオープンソース実装を付属させます。

要約(オリジナル)

In this work, we revisit the marking decisions made in the standard adaptive finite element method (AFEM). Experience shows that a na\'{i}ve marking policy leads to inefficient use of computational resources for adaptive mesh refinement (AMR). Consequently, using AFEM in practice often involves ad-hoc or time-consuming offline parameter tuning to set appropriate parameters for the marking subroutine. To address these practical concerns, we recast AMR as a Markov decision process in which refinement parameters can be selected on-the-fly at run time, without the need for pre-tuning by expert users. In this new paradigm, the refinement parameters are also chosen adaptively via a marking policy that can be optimized using methods from reinforcement learning. We use the Poisson equation to demonstrate our techniques on $h$- and $hp$-refinement benchmark problems, and our experiments suggest that superior marking policies remain undiscovered for many classical AFEM applications. Furthermore, an unexpected observation from this work is that marking policies trained on one family of PDEs are sometimes robust enough to perform well on problems far outside the training family. For illustration, we show that a simple $hp$-refinement policy trained on 2D domains with only a single re-entrant corner can be deployed on far more complicated 2D domains, and even 3D domains, without significant performance loss. For reproduction and broader adoption, we accompany this work with an open-source implementation of our methods.

arxiv情報

著者 Andrew Gillette,Brendan Keith,Socratis Petrides
発行日 2023-12-26 18:00:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク