PDEBENCH: An Extensive Benchmark for Scientific Machine Learning

要約

機械学習を用いた物理システムのモデリングは、近年、関心が高まっている。いくつかの目覚ましい進歩にもかかわらず、使いやすく、かつ挑戦的で、幅広い問題を代表する科学的MLのベンチマークはまだ不足しています。我々は、偏微分方程式(PDE)に基づく時間依存のシミュレーションタスクのベンチマーク群であるPDEBenchを紹介する。PDEBenchはコードとデータの両方から構成され、新しい機械学習モデルの性能を、古典的な数値シミュレーションと機械学習ベースラインの両方に対してベンチマークすることができます。私たちが提案するベンチマーク問題群は、以下のようなユニークな特徴を備えています。(1) 既存のベンチマークと比較して、比較的一般的な例からより現実的で難しい問題まで、より幅広いPDEを扱う。 (2) 先行研究と比較して、より多くの初期・境界条件とPDEパラメータで複数のシミュレーションを実行し、すぐに使えるデータセット。 (3) データ生成のための使いやすいAPIとより拡張性の高いソースコード、および人気の機械学習モデル(FNO、Uネット、PINN、Gradient Based Inverse Method)による基本結果。PDEBenchは、研究者が標準化されたAPIを使用して独自の目的でベンチマークを自由に拡張し、新しいモデルの性能を既存のベースライン手法と比較することができます。また、科学的MLの文脈で学習方法をより全体的に理解することを目的として、新しい評価指標を提案します。これらの評価指標を用いて、最近のML手法にとって困難なタスクを特定し、これらのタスクをコミュニティに対する将来の課題として提案する。コードは https://github.com/pdebench/PDEBench で公開されています。

要約(オリジナル)

Machine learning-based modeling of physical systems has experienced increased interest in recent years. Despite some impressive progress, there is still a lack of benchmarks for Scientific ML that are easy to use but still challenging and representative of a wide range of problems. We introduce PDEBench, a benchmark suite of time-dependent simulation tasks based on Partial Differential Equations (PDEs). PDEBench comprises both code and data to benchmark the performance of novel machine learning models against both classical numerical simulations and machine learning baselines. Our proposed set of benchmark problems contribute the following unique features: (1) A much wider range of PDEs compared to existing benchmarks, ranging from relatively common examples to more realistic and difficult problems; (2) much larger ready-to-use datasets compared to prior work, comprising multiple simulation runs across a larger number of initial and boundary conditions and PDE parameters; (3) more extensible source codes with user-friendly APIs for data generation and baseline results with popular machine learning models (FNO, U-Net, PINN, Gradient-Based Inverse Method). PDEBench allows researchers to extend the benchmark freely for their own purposes using a standardized API and to compare the performance of new models to existing baseline methods. We also propose new evaluation metrics with the aim to provide a more holistic understanding of learning methods in the context of Scientific ML. With those metrics we identify tasks which are challenging for recent ML methods and propose these tasks as future challenges for the community. The code is available at https://github.com/pdebench/PDEBench.

arxiv情報

著者 Makoto Takamoto,Timothy Praditia,Raphael Leiteritz,Dan MacKinlay,Francesco Alesiani,Dirk Pflüger,Mathias Niepert
発行日 2023-03-03 16:09:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, physics.flu-dyn, physics.geo-ph パーマリンク