math.OC」カテゴリーアーカイブ

Stochastic Variable Metric Proximal Gradient with variance reduction for non-convex composite optimization

要約 この論文では、有限和非凸複合最適化を解くように設計された新しいアルゴリズム … 続きを読む

カテゴリー: cs.LG, math.OC | Stochastic Variable Metric Proximal Gradient with variance reduction for non-convex composite optimization はコメントを受け付けていません

Tensor Train for Global Optimization Problems in Robotics

要約 多くの数値最適化手法の収束は、ソルバーに与えられる初期推定に大きく依存しま … 続きを読む

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SP, eess.SY, math.OC | Tensor Train for Global Optimization Problems in Robotics はコメントを受け付けていません

Model Predictive Control with Gaussian-Process-Supported Dynamical Constraints for Autonomous Vehicles

要約 人間の運転行動を予測するために学習したガウス過程を利用する自動運転車のモデ … 続きを読む

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY, math.OC | Model Predictive Control with Gaussian-Process-Supported Dynamical Constraints for Autonomous Vehicles はコメントを受け付けていません

LMI-based Data-Driven Robust Model Predictive Control

要約 システムのモデルに基づいて適用された入力を計算し、将来のシステムの動作を最 … 続きを読む

カテゴリー: cs.LG, cs.SY, eess.SY, math.OC | LMI-based Data-Driven Robust Model Predictive Control はコメントを受け付けていません

Policy Mirror Descent Inherently Explores Action Space

要約 最適な $\mathcal{O}(1/\epsilon^2)$ サンプルの … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Policy Mirror Descent Inherently Explores Action Space はコメントを受け付けていません

On Momentum-Based Gradient Methods for Bilevel Optimization with Nonconvex Lower-Level

要約 バイレベル最適化は、ハイパーパラメータ学習、メタ学習、継続的学習などの多く … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC | On Momentum-Based Gradient Methods for Bilevel Optimization with Nonconvex Lower-Level はコメントを受け付けていません

Enhanced Adaptive Gradient Algorithms for Nonconvex-PL Minimax Optimization

要約 この論文では、非凸非凹ミニマックス最適化問題 (つまり、$\min_x\m … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC | Enhanced Adaptive Gradient Algorithms for Nonconvex-PL Minimax Optimization はコメントを受け付けていません

Optimal Methods for Convex Risk Averse Distributed Optimization

要約 この論文では、ネットワークを介した凸状リスク回避最適化の通信の複雑性を研究 … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | Optimal Methods for Convex Risk Averse Distributed Optimization はコメントを受け付けていません

Convergence under Lipschitz smoothness of ease-controlled Random Reshuffling gradient Algorithms

要約 非常に多数の滑らかで、場合によっては非凸関数の平均を最小化することを検討し … 続きを読む

カテゴリー: 90.C.XX, cs.LG, G.4.1, math.OC | Convergence under Lipschitz smoothness of ease-controlled Random Reshuffling gradient Algorithms はコメントを受け付けていません

Benign Overfitting for Two-layer ReLU Networks

要約 優れた表現力を備えた最新のディープ ラーニング モデルは、トレーニング デ … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Benign Overfitting for Two-layer ReLU Networks はコメントを受け付けていません