要約
常微分方程式のデータ駆動型近似は、特に明示的な第一原理を欠く複雑なシステムにおいて、動的システム モデルを発見する際に、古典的な手法に代わる有望な代替手段を提供します。
この論文では、ネットワーク隣接行列を介して結合された常微分方程式系でダイナミクスが記述される複雑なシステムに焦点を当てます。
金融システム、社会システム、神経システムなど、現実世界の多くのシステムは、このクラスの動的モデルに属します。
私たちは、必要なバイアスや適切なニューラル アーキテクチャなど、ニューラル ネットワークを使用してこのような動的システムを近似するための必須要素を提案します。
静的教師あり学習との違いを強調し、統計学習理論の古典的な仮定を超えた一般化を評価することを提唱します。
推論時間中の予測の信頼性を推定するために、専用のヌル モデルを導入します。
さまざまな複雑なネットワークのダイナミクスを研究することで、さまざまなダイナミクスを近似し、複雑なネットワーク構造、サイズ、入力の統計的特性全体にわたって一般化するニューラル ネットワークの能力を実証します。
当社の包括的なフレームワークにより、高次元の非線形結合された複雑な動的システムの深層学習近似が可能になります。
要約(オリジナル)
Data-driven approximations of ordinary differential equations offer a promising alternative to classical methods in discovering a dynamical system model, particularly in complex systems lacking explicit first principles. This paper focuses on a complex system whose dynamics is described with a system of ordinary differential equations, coupled via a network adjacency matrix. Numerous real-world systems, including financial, social, and neural systems, belong to this class of dynamical models. We propose essential elements for approximating such dynamical systems using neural networks, including necessary biases and an appropriate neural architecture. Emphasizing the differences from static supervised learning, we advocate for evaluating generalization beyond classical assumptions of statistical learning theory. To estimate confidence in prediction during inference time, we introduce a dedicated null model. By studying various complex network dynamics, we demonstrate the neural network’s ability to approximate various dynamics, generalize across complex network structures, sizes, and statistical properties of inputs. Our comprehensive framework enables deep learning approximations of high-dimensional, non-linearly coupled complex dynamical systems.
arxiv情報
著者 | Vaiva Vasiliauskaite,Nino Antulov-Fantulin |
発行日 | 2023-08-15 15:59:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google