Differential 2D Copula Approximating Transforms via Sobolev Training: 2-Cats Networks

要約

コピュラは、データ次元間の依存関係を捉える強力な統計ツールです。
コピュラを適用する場合、最初に独立した周縁を推定することで多変量分布関数を推定できますが、これは簡単な作業であり、次に単一の交合関数 $C$ を使用して周縁を接続するという困難な作業です。
2 次元データの場合、コピュラは $C: (u,v)\in \mathbf{I}^2 \rightarrow \mathbf{I}$ の形式の 2 増加関数です。ここで $\mathbf{I}
= [0, 1]$。
この論文では、ニューラル ネットワーク (NN) がどのように 2 次元コピュラをノンパラメトリックに近似できるかを示します。
2-Cats と呼ばれる私たちのアプローチは、Physics-Informed Neural Networks と Sobolev Training の文献からインスピレーションを得ています。
2 次元コピュラの出力を最先端のものよりも正確に推定できることを示すだけでなく、私たちのアプローチはノンパラメトリックであり、コピュラ $C$ の数学的特性を尊重しています。

要約(オリジナル)

Copulas are a powerful statistical tool that captures dependencies across data dimensions. When applying Copulas, we can estimate multivariate distribution functions by initially estimating independent marginals, an easy task, and then a single copulating function, $C$, to connect the marginals, a hard task. For two-dimensional data, a copula is a two-increasing function of the form $C: (u,v)\in \mathbf{I}^2 \rightarrow \mathbf{I}$, where $\mathbf{I} = [0, 1]$. In this paper, we show how Neural Networks (NNs) can approximate any two-dimensional copula non-parametrically. Our approach, denoted as 2-Cats, is inspired by the Physics-Informed Neural Networks and Sobolev Training literature. Not only do we show that we can estimate the output of a 2d Copula better than the state-of-the-art, our approach is non-parametric and respects the mathematical properties of a Copula $C$.

arxiv情報

著者 Flavio Figueiredo,José Geraldo Fernandes,Jackson Silva,Renato M. Assunção
発行日 2023-09-28 12:38:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク