math.PR」カテゴリーアーカイブ

Linear convergence of proximal descent schemes on the Wasserstein space

要約 我々は、Wasserstein 空間上のエントロピー正規化汎関数を最適化す … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR | Linear convergence of proximal descent schemes on the Wasserstein space はコメントを受け付けていません

Model-free learning of probability flows: Elucidating the nonequilibrium dynamics of flocking

要約 アクティブ システムは、個々のコンポーネントが自律的にエネルギーを散逸する … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, math.PR | Model-free learning of probability flows: Elucidating the nonequilibrium dynamics of flocking はコメントを受け付けていません

Learning-Based Pricing and Matching for Two-Sided Queues

要約 複数の種類の顧客とサーバーを含む動的なシステムを検討します。 待機中の顧客 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR | Learning-Based Pricing and Matching for Two-Sided Queues はコメントを受け付けていません

Neural Operators Can Play Dynamic Stackelberg Games

要約 ダイナミック シュタッケルベルク ゲームは、リーダーが最初に行動し、フォロ … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC, math.PR, q-fin.CP | Neural Operators Can Play Dynamic Stackelberg Games はコメントを受け付けていません

Optimal Oblivious Subspace Embeddings with Near-optimal Sparsity

要約 忘却部分空間埋め込みは、任意の $d$ 次元部分空間について、高い確率で … 続きを読む

カテゴリー: cs.DS, cs.LG, cs.NA, math.NA, math.PR, stat.ML | Optimal Oblivious Subspace Embeddings with Near-optimal Sparsity はコメントを受け付けていません

Extending choice assessments to choice functions: An algorithm for computing the natural extension

要約 私たちは、一連の優先順位に基づいた意思決定のための統一的な数学的フレームワ … 続きを読む

カテゴリー: 60A99, 68T37, cs.AI, math.PR | Extending choice assessments to choice functions: An algorithm for computing the natural extension はコメントを受け付けていません

Asymptotic regularity of a generalised stochastic Halpern scheme with applications

要約 私たちは、クラスノセルスキー-マン反復のスタイルで 2 番目のマッピングを … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR | Asymptotic regularity of a generalised stochastic Halpern scheme with applications はコメントを受け付けていません

Structure Matters: Dynamic Policy Gradient

要約 この研究では、$\gamma$ 割引された無限水平表形式マルコフ決定プロセ … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR | Structure Matters: Dynamic Policy Gradient はコメントを受け付けていません

Limit Theorems for Stochastic Gradient Descent with Infinite Variance

要約 確率的勾配降下法は、機械学習でモデルをトレーニングするための最も一般的なア … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Limit Theorems for Stochastic Gradient Descent with Infinite Variance はコメントを受け付けていません

Universal approximation property of Banach space-valued random feature models including random neural networks

要約 大規模なカーネル近似のためのデータ駆動型教師あり機械学習手法である、ランダ … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Universal approximation property of Banach space-valued random feature models including random neural networks はコメントを受け付けていません