Weighted least-squares approximation with determinantal point processes and generalized volume sampling

要約

ランダムな点 $x_1 での関数の評価を使用して、いくつかの特徴マップ $\varphi$ に関連付けられた、与えられた $m$ 次元空間 $V_m$ の要素によって $L^2$ からの関数を近似する問題を考えます。
、\ドット、x_n$。
独立した同一分布の点を使用した最適な重み付き最小二乗に関するいくつかの結果を思い出した後、射影決定点プロセス (DPP) またはボリューム サンプリングを使用した重み付き最小二乗を検討します。
これらの分布は、選択された特徴 $\varphi(x_i)$ の多様性を促進する点間に依存性を導入します。
まず、サンプル数 $n = O(m\log(m))$ で期待どおりの準最適結果をもたらす、ボリューム再スケーリングされたサンプリングの一般化バージョンを提供します。これは、期待される $L^2$ 誤差が制限されていることを意味します。
$L^2$ の最良近似誤差を定数倍します。
また、関数が $L^2$ に連続的に埋め込まれたノルムベクトル空間 $H$ にあるとさらに仮定すると、近似はほぼ確実に $H$-norm で測定された最良の近似誤差によって制限されることが証明されます。
これには、$L^\infty$ の関数やカーネル ヒルベルト空間の再現の場合が含まれます。
最後に、投影 DPP (またはボリューム サンプリング) の独立した繰り返しを使用して、i.i.d. と同様の誤差限界を生成する代替戦略を提案します。
またはボリュームサンプリングですが、実際にははるかに少ないサンプル数で行われます。
数値実験により、さまざまな戦略のパフォーマンスが示されます。

要約(オリジナル)

We consider the problem of approximating a function from $L^2$ by an element of a given $m$-dimensional space $V_m$, associated with some feature map $\varphi$, using evaluations of the function at random points $x_1,\dots,x_n$. After recalling some results on optimal weighted least-squares using independent and identically distributed points, we consider weighted least-squares using projection determinantal point processes (DPP) or volume sampling. These distributions introduce dependence between the points that promotes diversity in the selected features $\varphi(x_i)$. We first provide a generalized version of volume-rescaled sampling yielding quasi-optimality results in expectation with a number of samples $n = O(m\log(m))$, that means that the expected $L^2$ error is bounded by a constant times the best approximation error in $L^2$. Also, further assuming that the function is in some normed vector space $H$ continuously embedded in $L^2$, we further prove that the approximation is almost surely bounded by the best approximation error measured in the $H$-norm. This includes the cases of functions from $L^\infty$ or reproducing kernel Hilbert spaces. Finally, we present an alternative strategy consisting in using independent repetitions of projection DPP (or volume sampling), yielding similar error bounds as with i.i.d. or volume sampling, but in practice with a much lower number of samples. Numerical experiments illustrate the performance of the different strategies.

arxiv情報

著者 Anthony Nouy,Bertrand Michel
発行日 2023-12-21 17:34:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA, math.ST, stat.TH パーマリンク