要約
ノイズ除去、最小二乗期待値、および多様体学習という個別のタスクは、多くの場合、2 つの確率変数の積から生じる条件付き期待値を見つけるという共通の設定で課せられます。
この論文では、このより一般的な問題に焦点を当て、条件付き期待値を推定するための演算子理論的アプローチについて説明します。
カーネル積分演算子は、再現カーネル ヒルベルト空間における線形逆問題として推定問題を設定するための圧縮ツールとして使用されます。
この方程式には数値近似を可能にする解があり、データ駆動型実装の収束が保証されることが示されています。
全体的な手法は実装が簡単で、実際の問題への応用例も示されています。
要約(オリジナル)
The separate tasks of denoising, least squares expectation, and manifold learning can often be posed in a common setting of finding the conditional expectations arising from a product of two random variables. This paper focuses on this more general problem and describes an operator theoretic approach to estimating the conditional expectation. Kernel integral operators are used as a compactification tool, to set up the estimation problem as a linear inverse problem in a reproducing kernel Hilbert space. This equation is shown to have solutions that allow numerical approximation, thus guaranteeing the convergence of data-driven implementations. The overall technique is easy to implement, and their successful application to some real-world problems are also shown.
arxiv情報
著者 | Suddhasattwa Das |
発行日 | 2024-01-08 15:49:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google