要約
この論文は、あるクラスの確率的学習アルゴリズムの一般化結果を証明します。
この方法は、アルゴリズムが何らかの先験的測定に対して絶対連続分布を生成し、ラドン ニコジム導関数がサブガウス濃度を持つ場合には常に適用されます。
アプリケーションは、ギブス アルゴリズムの境界と、安定した決定論的アルゴリズムのランダム化、およびデータ依存の事前確率による PAC ベイジアン境界です。
要約(オリジナル)
The paper proves generalization results for a class of stochastic learning algorithms. The method applies whenever the algorithm generates an absolutely continuous distribution relative to some a-priori measure and the Radon Nikodym derivative has subgaussian concentration. Applications are bounds for the Gibbs algorithm and randomizations of stable deterministic algorithms as well as PAC-Bayesian bounds with data-dependent priors.
arxiv情報
著者 | Andreas Maurer |
発行日 | 2024-08-29 15:41:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google