要約
多くの場合、ニューラル ネットワークで表される学習された関数に対して統合を実行すると便利です。
ただし、学習された関数 (特にニューラル ネットワーク) に対する分析的な統合は一般に困難とみなされているため、この統合は通常数値的に実行されます。
この研究では、学習された関数 $f$ の解析積分を表現する方法を紹介します。
これにより、ニューラル ネットワークの正確な積分を計算できるようになり、積分に直接制約を適用することで、制約付きニューラル ネットワークをパラメータ化できるようになります。
重要なことは、多くのアプリケーション (確率分布、距離計量など) に必要な条件である $f$ を正に制約する方法も導入することです。
最後に、固定積分ニューラル ネットワーク (FINN) を利用できるいくつかのアプリケーションを紹介します。
要約(オリジナル)
It is often useful to perform integration over learned functions represented by neural networks. However, this integration is usually performed numerically, as analytical integration over learned functions (especially neural networks) is generally viewed as intractable. In this work, we present a method for representing the analytical integral of a learned function $f$. This allows the exact integral of a neural network to be computed, and enables constrained neural networks to be parametrised by applying constraints directly to the integral. Crucially, we also introduce a method to constrain $f$ to be positive, a necessary condition for many applications (e.g. probability distributions, distance metrics, etc). Finally, we introduce several applications where our fixed-integral neural network (FINN) can be utilised.
arxiv情報
著者 | Ryan Kortvelesy |
発行日 | 2023-09-18 14:03:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google