stat.ML」カテゴリーアーカイブ

Amortized Variational Inference: When and Why?

要約 償却変分推論 (A-VI) は、確率モデルで生じる扱いにくい事後分布を近似 … 続きを読む

カテゴリー: cs.LG, stat.ML | Amortized Variational Inference: When and Why? はコメントを受け付けていません

Cluster-aware Semi-supervised Learning: Relational Knowledge Distillation Provably Learns Clustering

要約 教師モデルと生徒モデルの間の特徴(の関係)を一致させる(関係)知識蒸留の経 … 続きを読む

カテゴリー: cs.LG, stat.ML | Cluster-aware Semi-supervised Learning: Relational Knowledge Distillation Provably Learns Clustering はコメントを受け付けていません

Understanding Uncertainty Sampling

要約 不確実性サンプリングは、現在の予測モデルが不確実であるデータ サンプルの注 … 続きを読む

カテゴリー: cs.LG, stat.ML | Understanding Uncertainty Sampling はコメントを受け付けていません

Quantitative CLTs in Deep Neural Networks

要約 隠れ層の幅が大きな定数 $n$ に比例する、ランダムなガウス重みとバイアス … 続きを読む

カテゴリー: cs.AI, cs.LG, math.PR, stat.ML | Quantitative CLTs in Deep Neural Networks はコメントを受け付けていません

Leveraging Offline Data in Online Reinforcement Learning

要約 強化学習 (RL) コミュニティでは、オンライン RL とオフライン RL … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Leveraging Offline Data in Online Reinforcement Learning はコメントを受け付けていません

Dense Sample Deep Learning

要約 1980 年代に最初に提案されたニューラル ネットワーク アルゴリズムの変 … 続きを読む

カテゴリー: cs.AI, q-bio.NC, stat.ML | Dense Sample Deep Learning はコメントを受け付けていません

Label Calibration for Semantic Segmentation Under Domain Shift

要約 事前トレーニングされたセマンティック セグメンテーション モデルのパフォー … 続きを読む

カテゴリー: cs.CV, cs.LG, stat.ML | Label Calibration for Semantic Segmentation Under Domain Shift はコメントを受け付けていません

Alpha-divergence Variational Inference Meets Importance Weighted Auto-Encoders: Methodology and Asymptotics

要約 目標事後分布と変分分布の間のアルファ発散を最小限に抑えるために、変分 R\ … 続きを読む

カテゴリー: cs.LG, stat.ML | Alpha-divergence Variational Inference Meets Importance Weighted Auto-Encoders: Methodology and Asymptotics はコメントを受け付けていません

BOF-UCB: A Bayesian-Optimistic Frequentist Algorithm for Non-Stationary Contextual Bandits

要約 我々は、非定常環境における確率的文脈線形バンディットのための新しいベイジア … 続きを読む

カテゴリー: cs.LG, stat.ML | BOF-UCB: A Bayesian-Optimistic Frequentist Algorithm for Non-Stationary Contextual Bandits はコメントを受け付けていません

Generalization Error Bounds for Noisy, Iterative Algorithms via Maximal Leakage

要約 情報理論のフレームワークを採用して、ノイズの多い反復学習アルゴリズムのクラ … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, stat.ML | Generalization Error Bounds for Noisy, Iterative Algorithms via Maximal Leakage はコメントを受け付けていません