stat.CO」カテゴリーアーカイブ

Tuning Stochastic Gradient Algorithms for Statistical Inference via Large-Sample Asymptotics

要約 最適化とサンプリングのための確率的勾配アルゴリズム (SGA) の調整は、 … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ME, stat.ML | Tuning Stochastic Gradient Algorithms for Statistical Inference via Large-Sample Asymptotics はコメントを受け付けていません

On sampling determinantal and Pfaffian point processes on a quantum computer

要約 DPP は、1970 年代に量子光学のモデルとして Macchi によって … 続きを読む

カテゴリー: cs.LG, quant-ph, stat.CO | On sampling determinantal and Pfaffian point processes on a quantum computer はコメントを受け付けていません

Optimal Preconditioning and Fisher Adaptive Langevin Sampling

要約 予想されるジャンプ距離の 2 乗を解析的に最適化することで、ランジュバン拡 … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ML | Optimal Preconditioning and Fisher Adaptive Langevin Sampling はコメントを受け付けていません

$Φ$-DVAE: Physics-Informed Dynamical Variational Autoencoders for Unstructured Data Assimilation

要約 非構造化データを物理モデルに組み込むことは、データ同化において浮上している … 続きを読む

カテゴリー: cs.LG, physics.comp-ph, stat.CO, stat.ML | $Φ$-DVAE: Physics-Informed Dynamical Variational Autoencoders for Unstructured Data Assimilation はコメントを受け付けていません

A kernel Stein test of goodness of fit for sequential models

要約 我々は、異なる長さのテキスト文書や可変長シーケンスなど、さまざまな次元を持 … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ML | A kernel Stein test of goodness of fit for sequential models はコメントを受け付けていません

LINFA: a Python library for variational inference with normalizing flow and annealing

要約 変分推論は、統計および機械学習において確率分布を近似する方法としてますます … 続きを読む

カテゴリー: cs.LG, stat.CO | LINFA: a Python library for variational inference with normalizing flow and annealing はコメントを受け付けていません

Emulating the dynamics of complex systems using autoregressive models on manifolds (mNARX)

要約 この研究では、長期間にわたって時変する外因性励起によって駆動される複雑な動 … 続きを読む

カテゴリー: cs.LG, stat.AP, stat.CO, stat.ME | Emulating the dynamics of complex systems using autoregressive models on manifolds (mNARX) はコメントを受け付けていません

Restart Sampling for Improving Generative Processes

要約 拡散モデルなどの微分方程式を解くことを伴う生成プロセスでは、速度と品質のバ … 続きを読む

カテゴリー: cs.CV, cs.LG, stat.CO, stat.ML | Restart Sampling for Improving Generative Processes はコメントを受け付けていません

Differentiating Metropolis-Hastings to Optimize Intractable Densities

要約 確率モデルで推論を実行する場合、ターゲット密度が手に負えなくなることが多く … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ME, stat.ML | Differentiating Metropolis-Hastings to Optimize Intractable Densities はコメントを受け付けていません

L0Learn: A Scalable Package for Sparse Learning using L0 Regularization

要約 $\ell_0$ 正則化を使用したスパース線形回帰と分類のためのオープンソ … 続きを読む

カテゴリー: cs.LG, cs.MS, stat.CO, stat.ML | L0Learn: A Scalable Package for Sparse Learning using L0 Regularization はコメントを受け付けていません