stat.ML」カテゴリーアーカイブ

Private Mean Estimation with Person-Level Differential Privacy

要約 各人が複数のサンプルを保持している場合の個人レベルの差分プライベート (D … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.IT, cs.LG, math.IT, stat.ML | Private Mean Estimation with Person-Level Differential Privacy はコメントを受け付けていません

Non-Asymptotic Uncertainty Quantification in High-Dimensional Learning

要約 不確実性の定量化 (UQ) は、多くの高次元回帰または学習問題において、特 … 続きを読む

カテゴリー: cs.IT, cs.LG, eess.IV, math.IT, stat.AP, stat.ML | Non-Asymptotic Uncertainty Quantification in High-Dimensional Learning はコメントを受け付けていません

Discovering governing equation in structural dynamics from acceleration-only measurements

要約 過去数年にわたり、方程式の発見は科学や工学のさまざまな分野で人気を博してい … 続きを読む

カテゴリー: cs.LG, stat.ML | Discovering governing equation in structural dynamics from acceleration-only measurements はコメントを受け付けていません

Enhanced $H$-Consistency Bounds

要約 最近の研究では、代理損失の $H$ 一貫性限界という重要な概念が導入されま … 続きを読む

カテゴリー: cs.LG, stat.ML | Enhanced $H$-Consistency Bounds はコメントを受け付けていません

Predictive Low Rank Matrix Learning under Partial Observations: Mixed-Projection ADMM

要約 我々は、真の基礎となる行列に線形に依存する完全に観測されたサイド情報の存在 … 続きを読む

カテゴリー: cs.LG, stat.ML | Predictive Low Rank Matrix Learning under Partial Observations: Mixed-Projection ADMM はコメントを受け付けていません

Realizable $H$-Consistent and Bayes-Consistent Loss Functions for Learning to Defer

要約 延期することを学習するための代理損失関数の包括的な研究を紹介します。 非増 … 続きを読む

カテゴリー: cs.LG, stat.ML | Realizable $H$-Consistent and Bayes-Consistent Loss Functions for Learning to Defer はコメントを受け付けていません

Optimistic Q-learning for average reward and episodic reinforcement learning

要約 我々は、すべてのポリシーについて、ある頻繁な状態 $s_0$ を訪問する予 … 続きを読む

カテゴリー: cs.LG, stat.ML | Optimistic Q-learning for average reward and episodic reinforcement learning はコメントを受け付けていません

Multi-Label Learning with Stronger Consistency Guarantees

要約 $H$-一貫性限界によってサポートされる、サロゲート損失とマルチラベル学習 … 続きを読む

カテゴリー: cs.LG, stat.ML | Multi-Label Learning with Stronger Consistency Guarantees はコメントを受け付けていません

Information-Theoretic Foundations for Machine Learning

要約 過去 10 年間における機械学習の驚異的な進歩には目を見張るものがあります … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Information-Theoretic Foundations for Machine Learning はコメントを受け付けていません

Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review

要約 このチュートリアルでは、下流の報酬関数を最適化するために拡散モデルを微調整 … 続きを読む

カテゴリー: cs.AI, cs.LG, q-bio.QM, stat.ML | Understanding Reinforcement Learning-Based Fine-Tuning of Diffusion Models: A Tutorial and Review はコメントを受け付けていません