Learning and Generalizing Polynomials in Simulation Metamodeling

要約

多項式を学習し、分布外を一般化する機能は、タイム ステップの更新が多項式で記述される工学の多くの分野におけるシミュレーション メタモデルにとって不可欠です。
フィードフォワード ニューラル ネットワークはあらゆる関数に適合できますが、高次多項式の分布外を一般化することはできません。
したがって、この論文では、高次多項式を近似するための再帰的構成要素として使用される乗算ニューラル ネットワーク (MNN) アーキテクチャを収集し、提案します。
私たちの実験では、MNN は一般化においてベースライン モデルよりも優れており、検証におけるパフォーマンスは配布外テストにおけるパフォーマンスに忠実であることが示されています。
MNN アーキテクチャに加えて、多項式タイム ステップ更新を伴うシミュレーションに対して、シミュレーション メタモデリング アプローチが提案されています。
これらのシミュレーションでは、ステップ サイズを増やすことで時間間隔のシミュレーションをより少ないステップで実行できますが、これには高次の多項式の近似が必要になります。
私たちのアプローチは多項式タイムステップ更新を伴うあらゆるシミュレーションと互換性がありますが、疫学シミュレーションモデルのデモンストレーションが示されており、高次多項式の学習と一般化のためのMNNの帰納的バイアスも示されています。

要約(オリジナル)

The ability to learn polynomials and generalize out-of-distribution is essential for simulation metamodels in many disciplines of engineering, where the time step updates are described by polynomials. While feed forward neural networks can fit any function, they cannot generalize out-of-distribution for higher-order polynomials. Therefore, this paper collects and proposes multiplicative neural network (MNN) architectures that are used as recursive building blocks for approximating higher-order polynomials. Our experiments show that MNNs are better than baseline models at generalizing, and their performance in validation is true to their performance in out-of-distribution tests. In addition to MNN architectures, a simulation metamodeling approach is proposed for simulations with polynomial time step updates. For these simulations, simulating a time interval can be performed in fewer steps by increasing the step size, which entails approximating higher-order polynomials. While our approach is compatible with any simulation with polynomial time step updates, a demonstration is shown for an epidemiology simulation model, which also shows the inductive bias in MNNs for learning and generalizing higher-order polynomials.

arxiv情報

著者 Jesper Hauch,Christoffer Riis,Francisco C. Pereira
発行日 2023-07-20 14:11:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク