Credal Learning Theory

要約

統計的学習理論は機械学習の基礎であり、未知の確率分布に由来すると仮定された(単一の)学習セットから学習されたモデルのリスクに対する理論的な境界を提供する。しかし、実際の導入においては、データ分布が変化する可能性があり(そしてしばしば変化する)、ドメイン適応/汎化の問題を引き起こす。本稿では、データ生成分布のばらつきをモデル化するために、確率の凸集合(クレダル集合)を用いた「クレダル」学習理論の基礎を築く。このようなクレダル集合は、有限サンプルの訓練集合から推測することができると我々は主張する。有限の仮説空間(実現可能性を仮定した場合とそうでない場合の両方)の場合と、無限のモデル空間の場合の境界を導出し、古典的な結果を直接一般化する。

要約(オリジナル)

Statistical learning theory is the foundation of machine learning, providing theoretical bounds for the risk of models learnt from a (single) training set, assumed to issue from an unknown probability distribution. In actual deployment, however, the data distribution may (and often does) vary, causing domain adaptation/generalization issues. In this paper we lay the foundations for a `credal’ theory of learning, using convex sets of probabilities (credal sets) to model the variability in the data-generating distribution. Such credal sets, we argue, may be inferred from a finite sample of training sets. Bounds are derived for the case of finite hypotheses spaces (both assuming realizability or not) as well as infinite model spaces, which directly generalize classical results.

arxiv情報

著者 Michele Caprio,Maryam Sultana,Eleni Elia,Fabio Cuzzolin
発行日 2024-03-01 14:07:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク