要約
サンプルの再重み付けは、カーネル ヒルベルト空間 (RKHS) を再現する際の最小二乗学習アルゴリズムの誤差を修正するために最も広く使用されている方法の 1 つです。この誤差は、トレーニング データの分布とは異なる将来のデータ分布によって引き起こされます。
実際の状況では、サンプルの重みは、トレーニング データ分布に関する将来のデータ分布の推定ラドン ニコダイム導関数の値によって決定されます。
この研究では、RKHS での再重み付けされたカーネル回帰の既知の誤差限界を検討し、組み合わせて新しい結果を取得します。
弱い平滑性条件下では、データ分布の違いなしに標準的な教師あり学習と同じオーダーの精度を達成するために必要なサンプル量が、最先端の解析で証明されている量よりも少ないことを示します。
要約(オリジナル)
Sample reweighting is one of the most widely used methods for correcting the error of least squares learning algorithms in reproducing kernel Hilbert spaces (RKHS), that is caused by future data distributions that are different from the training data distribution. In practical situations, the sample weights are determined by values of the estimated Radon-Nikod\’ym derivative, of the future data distribution w.r.t.~the training data distribution. In this work, we review known error bounds for reweighted kernel regression in RKHS and obtain, by combination, novel results. We show under weak smoothness conditions, that the amount of samples, needed to achieve the same order of accuracy as in the standard supervised learning without differences in data distributions, is smaller than proven by state-of-the-art analyses.
arxiv情報
著者 | Duc Hoan Nguyen,Sergei V. Pereverzyev,Werner Zellinger |
発行日 | 2023-07-21 11:19:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google