math.PR」カテゴリーアーカイブ

HEROS-GAN: Honed-Energy Regularized and Optimal Supervised GAN for Enhancing Accuracy and Range of Low-Cost Accelerometers

要約 低コストの加速度計は、小さなサイズ、統合の容易さ、摩耗性、大量生産の利点の … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO, eess.SP, math.PR | HEROS-GAN: Honed-Energy Regularized and Optimal Supervised GAN for Enhancing Accuracy and Range of Low-Cost Accelerometers はコメントを受け付けていません

Global law of conjugate kernel random matrices with heavy-tailed weights

要約 コンジュゲートカーネルランダムマトリックス$ yy^\ top $の漸近ス … 続きを読む

カテゴリー: 15B52, 60B20, 68T07, cs.LG, math.PR, stat.ML | Global law of conjugate kernel random matrices with heavy-tailed weights はコメントを受け付けていません

Mixing Any Cocktail with Limited Ingredients: On the Structure of Payoff Sets in Multi-Objective MDPs and its Impact on Randomised Strategies

要約 マルコフの決定プロセスにおける多次元ペイオフ関数を検討し、特定の予想ペイオ … 続きを読む

カテゴリー: cs.AI, cs.FL, cs.GT, cs.LO, math.PR | Mixing Any Cocktail with Limited Ingredients: On the Structure of Payoff Sets in Multi-Objective MDPs and its Impact on Randomised Strategies はコメントを受け付けていません

Score Change of Variables

要約 スコア関数の変数式の一般的な変更を導き出します。スムーズで反転可能な変換$ … 続きを読む

カテゴリー: 68T01, cs.AI, cs.LG, I.2.6, math.PR | Score Change of Variables はコメントを受け付けていません

Selective Reviews of Bandit Problems in AI via a Statistical View

要約 Rehnection Learning(RL)は、環境との相互作用を通じて … 続きを読む

カテゴリー: cs.AI, cs.LG, econ.EM, math.PR, stat.ML | Selective Reviews of Bandit Problems in AI via a Statistical View はコメントを受け付けていません

Selective Reviews of Bandit Problems in AI via a Statistical View

要約 Rehnection Learning(RL)は、環境との相互作用を通じて … 続きを読む

カテゴリー: cs.AI, cs.LG, econ.EM, math.PR, stat.ML | Selective Reviews of Bandit Problems in AI via a Statistical View はコメントを受け付けていません

Rough Stochastic Pontryagin Maximum Principle and an Indirect Shooting Method

要約 ガウスのラフパスによって駆動される粗微分方程式(RDE)によってモデル化さ … 続きを読む

カテゴリー: cs.RO, cs.SY, eess.SY, math.OC, math.PR | Rough Stochastic Pontryagin Maximum Principle and an Indirect Shooting Method はコメントを受け付けていません

Gaussian Approximation and Multiplier Bootstrap for Stochastic Gradient Descent

要約 この論文では、確率的勾配降下(SGD)のPolyAK-Ruppert平均繰 … 続きを読む

カテゴリー: 60F05, 62L20, 93E35, cs.LG, math.OC, math.PR, math.ST, stat.ML, stat.TH | Gaussian Approximation and Multiplier Bootstrap for Stochastic Gradient Descent はコメントを受け付けていません

Noise Sensitivity of Hierarchical Functions and Deep Learning Lower Bounds in General Product Measures

要約 最近の作品は、階層構造を使用した機能またはデータを調べることにより、Dee … 続きを読む

カテゴリー: cs.CC, cs.LG, math.CO, math.PR | Noise Sensitivity of Hierarchical Functions and Deep Learning Lower Bounds in General Product Measures はコメントを受け付けていません

Student-t processes as infinite-width limits of posterior Bayesian neural networks

要約 ベイジアンニューラルネットワーク(BNNS)の漸近特性は、特に無限の幅の制 … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Student-t processes as infinite-width limits of posterior Bayesian neural networks はコメントを受け付けていません