stat.ML」カテゴリーアーカイブ

Feature learning as alignment: a structural property of gradient descent in non-linear neural networks

要約 ニューラル ネットワークが特徴学習を通じて入力ラベルのペアから統計を抽出す … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Feature learning as alignment: a structural property of gradient descent in non-linear neural networks はコメントを受け付けていません

KalMamba: Towards Efficient Probabilistic State Space Models for RL under Uncertainty

要約 確率的状態空間モデル (SSM) は、制御のための簡潔な表現を提供するため … 続きを読む

カテゴリー: cs.LG, stat.ML | KalMamba: Towards Efficient Probabilistic State Space Models for RL under Uncertainty はコメントを受け付けていません

Incentivizing High-Quality Content in Online Recommender Systems

要約 TikTok や YouTube などのコンテンツ推奨システムでは、プラッ … 続きを読む

カテゴリー: cs.GT, cs.IR, cs.LG, stat.ML | Incentivizing High-Quality Content in Online Recommender Systems はコメントを受け付けていません

Fine-grained analysis of non-parametric estimation for pairwise learning

要約 この論文では、ペアワイズ学習におけるノンパラメトリック推定の一般化パフォー … 続きを読む

カテゴリー: cs.LG, stat.ML | Fine-grained analysis of non-parametric estimation for pairwise learning はコメントを受け付けていません

ExDAG: Exact learning of DAGs

要約 近年、因果関係学習への関心が高まっています。 ベイジアン ネットワークや構 … 続きを読む

カテゴリー: cs.LG, stat.ML | ExDAG: Exact learning of DAGs はコメントを受け付けていません

Fast sampling from constrained spaces using the Metropolis-adjusted Mirror Langevin algorithm

要約 我々は、コンパクトな凸集合をサポートする分布からの近似サンプリングのために … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.CO, stat.ML, stat.TH | Fast sampling from constrained spaces using the Metropolis-adjusted Mirror Langevin algorithm はコメントを受け付けていません

Testing Calibration in Nearly-Linear Time

要約 機械学習と意思決定に関する最近の文献では、バイナリ予測モデルの出力の望まし … 続きを読む

カテゴリー: cs.DS, cs.LG, stat.CO, stat.ML | Testing Calibration in Nearly-Linear Time はコメントを受け付けていません

Generative Topological Networks

要約 生成モデルは近年大幅な進歩を遂げていますが、多くの場合、トレーニングと使用 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Generative Topological Networks はコメントを受け付けていません

Two Complementary Perspectives to Continual Learning: Ask Not Only What to Optimize, But Also How

要約 近年、ディープ ニューラル ネットワークの継続的トレーニングにおいて大幅な … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG, stat.ML | Two Complementary Perspectives to Continual Learning: Ask Not Only What to Optimize, But Also How はコメントを受け付けていません

On the Convergence of Adaptive Gradient Methods for Nonconvex Optimization

要約 適応勾配法は深層学習の主力です。 ただし、非凸最適化に対する適応勾配法の収 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | On the Convergence of Adaptive Gradient Methods for Nonconvex Optimization はコメントを受け付けていません