Mechanistic Neural Networks for Scientific Machine Learning

要約

この論文では、科学における機械学習アプリケーションのためのニューラル ネットワーク設計である Mechanistic Neural Networks について説明します。
標準アーキテクチャに新しいメカニズム ブロックが組み込まれており、支配的な微分方程式を表現として明示的に学習し、データの基礎となるダイナミクスを明らかにし、データ モデリングの解釈可能性と効率を向上させます。
私たちのアプローチの中心となるのは、線形常微分方程式の解法を線形計画法の解法に単純化する手法からインスピレーションを得た新しいリラックス線形計画法ソルバー (NeuRLP) です。
これはニューラル ネットワークとうまく統合され、従来の ODE ソルバーの制限を超えて、スケーラブルな GPU 並列処理を可能にします。
全体として、メカニスティック ニューラル ネットワークは科学機械学習アプリケーションに対する多用途性を実証し、方程式の発見から動的システム モデリングまでのタスクを適切に管理します。
当社は、さまざまなアプリケーションにわたって複雑な科学データを分析および解釈する際の包括的な能力を証明し、特殊な最先端の手法に対して優れたパフォーマンスを示します。

要約(オリジナル)

This paper presents Mechanistic Neural Networks, a neural network design for machine learning applications in the sciences. It incorporates a new Mechanistic Block in standard architectures to explicitly learn governing differential equations as representations, revealing the underlying dynamics of data and enhancing interpretability and efficiency in data modeling. Central to our approach is a novel Relaxed Linear Programming Solver (NeuRLP) inspired by a technique that reduces solving linear ODEs to solving linear programs. This integrates well with neural networks and surpasses the limitations of traditional ODE solvers enabling scalable GPU parallel processing. Overall, Mechanistic Neural Networks demonstrate their versatility for scientific machine learning applications, adeptly managing tasks from equation discovery to dynamic systems modeling. We prove their comprehensive capabilities in analyzing and interpreting complex scientific data across various applications, showing significant performance against specialized state-of-the-art methods.

arxiv情報

著者 Adeel Pervez,Francesco Locatello,Efstratios Gavves
発行日 2024-02-20 15:23:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク