Towards Optimal Sobolev Norm Rates for the Vector-Valued Regularized Least-Squares Algorithm

要約

$L_2$ と仮説空間 (ベクトル値再現カーネル ヒルベルト空間とみなします) の間を補間する連続スケールのノルム上で、無限次元ベクトル値リッジ回帰の最初の最適率を提示します。
これらの率を使用すると、真の回帰関数が仮説空間に含まれていない、指定が間違っているケースを扱うことができます。
回帰関数の滑らかさを特徴付けるために、仮説空間の容量に関する標準的な仮定をベクトル値の内挿空間の新しいテンソル積構築と組み合わせます。
私たちの上限は、実数値のカーネル リッジ回帰と同じレートを達成するだけでなく、ターゲットの回帰関数が制限されているという仮定を取り除きます。
下限については、射影引数を使用して問題をスカラー設定に落とし込みます。
これらのレートはほとんどの場合に最適であり、出力空間の次元とは無関係であることを示します。
ベクトル値のソボレフ空間の特殊な場合の結果を示します。

要約(オリジナル)

We present the first optimal rates for infinite-dimensional vector-valued ridge regression on a continuous scale of norms that interpolate between $L_2$ and the hypothesis space, which we consider as a vector-valued reproducing kernel Hilbert space. These rates allow to treat the misspecified case in which the true regression function is not contained in the hypothesis space. We combine standard assumptions on the capacity of the hypothesis space with a novel tensor product construction of vector-valued interpolation spaces in order to characterize the smoothness of the regression function. Our upper bound not only attains the same rate as real-valued kernel ridge regression, but also removes the assumption that the target regression function is bounded. For the lower bound, we reduce the problem to the scalar setting using a projection argument. We show that these rates are optimal in most cases and independent of the dimension of the output space. We illustrate our results for the special case of vector-valued Sobolev spaces.

arxiv情報

著者 Zhu Li,Dimitri Meunier,Mattes Mollenhauer,Arthur Gretton
発行日 2023-12-13 16:23:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク