Learning from Linear Algebra: A Graph Neural Network Approach to Preconditioner Design for Conjugate Gradient Solvers

要約

大規模な線形システムは、現代の計算科学や工学においてどこにでも存在する。これらを解くための主な方法は、よく設計されたプリコンディショナを用いたクリロフ部分空間反復法の使用である。最近、GNNは、古典的な線形代数的手法よりも効率的に反復法の全体的な計算コストを削減するためのプリコンディショナを設計するための有望なツールであることが示されている。このようなアプローチで設計された前処理器は、CGの反復回数という点では古典的な手法で設計されたものを上回ることはできない。我々の研究では、線形代数から確立された前処理法を想起し、それを出発点としてGNNを学習させることで、古典的な前処理法よりもシステムの条件数を大幅に削減する前処理法を得る。数値実験により、パラメトリック偏微分方程式の重要なクラスに対して、我々のアプローチが古典的手法とニューラルネットワークに基づく手法の両方を凌駕することを示す。また、使用する損失関数の発見的な正当性を提供し、この損失関数を用いた学習によって得られるプリコンディショナが、CGにとってより望ましい形で条件数を削減することを示す。

要約(オリジナル)

Large linear systems are ubiquitous in modern computational science and engineering. The main recipe for solving them is the use of Krylov subspace iterative methods with well-designed preconditioners. Recently, GNNs have been shown to be a promising tool for designing preconditioners to reduce the overall computational cost of iterative methods by constructing them more efficiently than with classical linear algebra techniques. Preconditioners designed with these approaches cannot outperform those designed with classical methods in terms of the number of iterations in CG. In our work, we recall well-established preconditioners from linear algebra and use them as a starting point for training the GNN to obtain preconditioners that reduce the condition number of the system more significantly than classical preconditioners. Numerical experiments show that our approach outperforms both classical and neural network-based methods for an important class of parametric partial differential equations. We also provide a heuristic justification for the loss function used and show that preconditioners obtained by learning with this loss function reduce the condition number in a more desirable way for CG.

arxiv情報

著者 Vladislav Trifonov,Alexander Rudikov,Oleg Iliev,Yuri M. Laevsky,Ivan Oseledets,Ekaterina Muravleva
発行日 2025-02-03 13:54:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク