要約
統計学習の理論は、関数で表現される変分目標に焦点を当ててきました。
このノートでは、メジャーについて同様の目標を記述する動機について、特に分布外一般化と弱教師あり学習について説明します。
そこで当然の疑問が生じます: 通常の統計学習結果をメジャーで表現された目標に当てはめることはできるでしょうか?
結果として得られる構築は、実用的な興味深い新しいアルゴリズムにつながるでしょうか?
要約(オリジナル)
The theory of statistical learning has focused on variational objectives expressed on functions. In this note, we discuss motivations to write similar objectives on measures, in particular to discuss out-of-distribution generalization and weakly-supervised learning. It raises a natural question: can one cast usual statistical learning results to objectives expressed on measures? Does the resulting construction lead to new algorithms of practical interest?
arxiv情報
著者 | Vivien Cabannes,Carles Domingo-Enrich |
発行日 | 2023-11-16 13:38:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google