要約
機械学習を用いた物理システムのモデリングは、近年、関心が高まっている。いくつかの目覚ましい進歩にもかかわらず、使いやすく、なおかつ難しい、幅広い問題を代表するような科学的MLのベンチマークはまだ不足している。PDEBenchは偏微分方程式に基づく時間依存のシミュレーションタスクのベンチマークスイートで、PDEを紹介します。PDEBenchはコードとデータの両方から構成され、古典的な数値シミュレーションと機械学習のベースラインの両方に対して、新しい機械学習モデルの性能をベンチマークすることができます。私たちが提案するベンチマーク問題は、以下のようなユニークな特徴を備えています。(1)既存のベンチマークと比較して、比較的一般的な例題から現実的で難しい問題まで、より幅広いPDEを扱っていること (2)先行研究と比較して、より多くの初期・境界条件とPDEパラメータにわたって複数のシミュレーションを実行し、すぐに使えるデータセットを提供していること (3) データ生成用のユーザーフレンドリーAPIとより拡張性の高いソースコード、一般的な機械学習モデル(FNO、Uネット、PINN、Gradient Based Inverse Method)による基準結果である。PDEBenchにより、研究者は標準化されたAPIを使用して独自の目的のためにベンチマークを自由に拡張することができ、新しいモデルの性能を既存のベースライン手法と比較することができます。また、サイエンティフィックMLの文脈で学習手法をより全体的に理解することを目的として、新しい評価指標を提案します。これらの評価指標を用いて、最近のML手法にとって困難なタスクを特定し、コミュニティに対する将来の課題として提案する。コードは https://github.com/pdebench/PDEBench で公開されています。
要約(オリジナル)
Machine learning-based modeling of physical systems has experienced increased interest in recent years. Despite some impressive progress, there is still a lack of benchmarks for Scientific ML that are easy to use but still challenging and representative of a wide range of problems. We introduce PDEBench, a benchmark suite of time-dependent simulation tasks based on Partial Differential Equations (PDEs). PDEBench comprises both code and data to benchmark the performance of novel machine learning models against both classical numerical simulations and machine learning baselines. Our proposed set of benchmark problems contribute the following unique features: (1) A much wider range of PDEs compared to existing benchmarks, ranging from relatively common examples to more realistic and difficult problems; (2) much larger ready-to-use datasets compared to prior work, comprising multiple simulation runs across a larger number of initial and boundary conditions and PDE parameters; (3) more extensible source codes with user-friendly APIs for data generation and baseline results with popular machine learning models (FNO, U-Net, PINN, Gradient-Based Inverse Method). PDEBench allows researchers to extend the benchmark freely for their own purposes using a standardized API and to compare the performance of new models to existing baseline methods. We also propose new evaluation metrics with the aim to provide a more holistic understanding of learning methods in the context of Scientific ML. With those metrics we identify tasks which are challenging for recent ML methods and propose these tasks as future challenges for the community. The code is available at https://github.com/pdebench/PDEBench.
arxiv情報
著者 | Makoto Takamoto,Timothy Praditia,Raphael Leiteritz,Dan MacKinlay,Francesco Alesiani,Dirk Pflüger,Mathias Niepert |
発行日 | 2023-02-03 12:45:47+00:00 |
arxivサイト | arxiv_id(pdf) |