要約
このペーパーでは、前処理されたコンジュゲート勾配(CG)メソッドで数値精度を動的に最適化するための新しい強化学習(RL)フレームワークを紹介します。
Markov Decisionプロセス(MDP)として精密選択をモデル化することにより、Qラーニングを採用して、主要な操作に精密レベルを適応的に割り当て、計算効率と数値精度の間の最適なバランスを描きながら、二重精度のスカラー計算と残留コンピューティングを通じて安定性を確保します。
実際には、アルゴリズムは一連のデータでトレーニングされ、その後、新しいデータセットの再分析または再訓練を必要とせずに、サンプル外データの精度選択の推論を実行します。
これにより、この方法は、再較正の計算オーバーヘッドなしで新しい問題インスタンスにシームレスに適応することができます。
我々の結果は、RLのパフォーマンスを強化する際のRLの有効性を示しており、RLの最初のアプリケーションを混合精度の数値法にマークします。
調査結果は、アプローチの実際的な利点、堅牢性、およびスケーラビリティを強調し、反復ソルバーとの統合に関する貴重な洞察を提供し、科学コンピューティングのAI駆動型の進歩への道を開きます。
要約(オリジナル)
This paper presents a novel reinforcement learning (RL) framework for dynamically optimizing numerical precision in the preconditioned conjugate gradient (CG) method. By modeling precision selection as a Markov Decision Process (MDP), we employ Q-learning to adaptively assign precision levels to key operations, striking an optimal balance between computational efficiency and numerical accuracy, while ensuring stability through double-precision scalar computations and residual computing. In practice, the algorithm is trained on a set of data and subsequently performs inference for precision selection on out-of-sample data, without requiring re-analysis or retraining for new datasets. This enables the method to adapt seamlessly to new problem instances without the computational overhead of recalibration. Our results demonstrate the effectiveness of RL in enhancing solver’s performance, marking the first application of RL to mixed-precision numerical methods. The findings highlight the approach’s practical advantages, robustness, and scalability, providing valuable insights into its integration with iterative solvers and paving the way for AI-driven advancements in scientific computing.
arxiv情報
著者 | Xinye Chen |
発行日 | 2025-05-19 16:54:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google