Supervised learning with probabilistic morphisms and kernel mean embeddings

要約

この論文では、正しい損失関数の概念を使用して、監督された学習に対する2つのアプローチを統一する監視された学習の生成モデルを提案します。
統計学習理論で無視されている2つの測定可能性の問題に対処すると、私は外部確率で収束を使用して、学習アルゴリズムの一貫性を特徴付けることを提案します。
これらの結果に基づいて、条件付き確率推定問題の設定まで、回帰モデルの学習性に対処するCucker-Smaleのために結果を拡張します。
さらに、確率的に不適切な問題を解決し、それを使用して監視された監視学習モデルの一般化を証明するためのVapnik-Stefanuykの正規化方法のバリアントを提示します。

要約(オリジナル)

In this paper I propose a generative model of supervised learning that unifies two approaches to supervised learning, using a concept of a correct loss function. Addressing two measurability problems, which have been ignored in statistical learning theory, I propose to use convergence in outer probability to characterize the consistency of a learning algorithm. Building upon these results, I extend a result due to Cucker-Smale, which addresses the learnability of a regression model, to the setting of a conditional probability estimation problem. Additionally, I present a variant of Vapnik-Stefanuyk’s regularization method for solving stochastic ill-posed problems, and using it to prove the generalizability of overparameterized supervised learning models.

arxiv情報

著者 Hông Vân Lê
発行日 2025-04-28 16:49:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 18N99, 46N30, 60B10, 62G05, cs.LG, math.CT, math.FA, math.PR, math.ST, stat.TH パーマリンク