math.OC」カテゴリーアーカイブ

High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise

要約 確率的一次法は、大規模な機械学習モデルをトレーニングするための標準です。 … 続きを読む

カテゴリー: cs.LG, math.OC | High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise はコメントを受け付けていません

Robotic warehousing operations: a learn-then-optimize approach to large-scale neighborhood search

要約 ロボット技術を迅速に展開するには、多数の自律エージェントを管理するための専 … 続きを読む

カテゴリー: cs.LG, cs.RO, math.OC | Robotic warehousing operations: a learn-then-optimize approach to large-scale neighborhood search はコメントを受け付けていません

On the Curse of Memory in Recurrent Neural Networks: Approximation and Optimization Analysis

要約 私たちは、時間データの入出力関係を学習するために適用されたリカレント ニュ … 続きを読む

カテゴリー: 37M10, 68T07, 68W25, cs.LG, I.2.6, math.OC, stat.ML | On the Curse of Memory in Recurrent Neural Networks: Approximation and Optimization Analysis はコメントを受け付けていません

A Newton-CG based barrier-augmented Lagrangian method for general nonconvex conic optimization

要約 この論文では、非線形等式制約と凸円錐制約の対象となる 2 回微分可能関数を … 続きを読む

カテゴリー: 49M05, 49M15, 68Q25, 90C26, 90C30, 90C60, cs.LG, cs.NA, math.NA, math.OC, stat.ML | A Newton-CG based barrier-augmented Lagrangian method for general nonconvex conic optimization はコメントを受け付けていません

Bayesian Optimization for Non-Convex Two-Stage Stochastic Optimization Problems

要約 ベイジアン最適化は、高価なブラックボックス最適化問題を解決するためのサンプ … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Bayesian Optimization for Non-Convex Two-Stage Stochastic Optimization Problems はコメントを受け付けていません

Can We Remove the Square-Root in Adaptive Gradient Methods? A Second-Order Perspective

要約 Adam(W) のような適応勾配オプティマイザーは、トランスフォーマーなど … 続きを読む

カテゴリー: cs.LG, math.OC | Can We Remove the Square-Root in Adaptive Gradient Methods? A Second-Order Perspective はコメントを受け付けていません

Path planning for autonomous vehicles with minimal collision severity

要約 この論文では、静的障害物と動的障害物の両方に関して衝突重大度を評価する、自 … 続きを読む

カテゴリー: 49M99, cs.RO, math.OC | Path planning for autonomous vehicles with minimal collision severity はコメントを受け付けていません

Unified Convergence Theory of Stochastic and Variance-Reduced Cubic Newton Methods

要約 私たちは、一般的な非凸の最小化問題を解決するための確率的立方ニュートン法を … 続きを読む

カテゴリー: cs.LG, math.OC | Unified Convergence Theory of Stochastic and Variance-Reduced Cubic Newton Methods はコメントを受け付けていません

Sparse Signal Reconstruction for Overdispersed Low-photon Count Biomedical Imaging Using $\ell_p$ Total Variation

要約 ポアソン分布モデルを一般化した負の二項モデルは、医療用画像処理などの低光子 … 続きを読む

カテゴリー: cs.CV, eess.IV, eess.SP, math.OC | Sparse Signal Reconstruction for Overdispersed Low-photon Count Biomedical Imaging Using $\ell_p$ Total Variation はコメントを受け付けていません

A Deep Learning Based Resource Allocator for Communication Systems with Dynamic User Utility Demands

要約 ディープラーニング (DL) ベースのリソース割り当て (RA) は、その … 続きを読む

カテゴリー: cs.LG, cs.NI, eess.SP, math.OC | A Deep Learning Based Resource Allocator for Communication Systems with Dynamic User Utility Demands はコメントを受け付けていません