math.OC」カテゴリーアーカイブ

Subhomogeneous Deep Equilibrium Models

要約 暗黙的深度ニューラル ネットワークは、近年、さまざまなアプリケーションにお … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC | Subhomogeneous Deep Equilibrium Models はコメントを受け付けていません

Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation

要約 学習ベースのニューラル ネットワーク (NN) 制御ポリシーは、ロボット工 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO, cs.SY, eess.SY, math.OC | Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation はコメントを受け付けていません

Error Feedback Can Accurately Compress Preconditioners

要約 ディープ ネットワークの規模での損失に関する 2 次情報を活用することは、 … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC | Error Feedback Can Accurately Compress Preconditioners はコメントを受け付けていません

Remove that Square Root: A New Efficient Scale-Invariant Version of AdaGrad

要約 適応手法は、学習率の調整を低コストで行えるため、機械学習において非常に人気 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Remove that Square Root: A New Efficient Scale-Invariant Version of AdaGrad はコメントを受け付けていません

Contextual Optimization under Covariate Shift: A Robust Approach by Intersecting Wasserstein Balls

要約 コンテキスト最適化では、意思決定者は、同時分布を知ることなく、不確実な変数 … 続きを読む

カテゴリー: cs.LG, math.OC | Contextual Optimization under Covariate Shift: A Robust Approach by Intersecting Wasserstein Balls はコメントを受け付けていません

Sample Complexity of Algorithm Selection Using Neural Networks and Its Applications to Branch-and-Cut

要約 データ駆動型アルゴリズム設計は、統計および機械学習の手法を使用して、計算問 … 続きを読む

カテゴリー: cs.LG, math.OC | Sample Complexity of Algorithm Selection Using Neural Networks and Its Applications to Branch-and-Cut はコメントを受け付けていません

Can We Remove the Square-Root in Adaptive Gradient Methods? A Second-Order Perspective

要約 Adam(W) のような適応勾配オプティマイザーは、トランスフォーマーなど … 続きを読む

カテゴリー: cs.LG, math.OC | Can We Remove the Square-Root in Adaptive Gradient Methods? A Second-Order Perspective はコメントを受け付けていません

Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning

要約 大規模な分散機械学習では、最近の研究で、通信のボトルネックを軽減するための … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY, math.OC | Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning はコメントを受け付けていません

Parallel and Proximal Constrained Linear-Quadratic Methods for Real-Time Nonlinear MPC

要約 非線形モデル予測制御(NMPC)における最近の進歩は、大規模な問題を効率的 … 続きを読む

カテゴリー: cs.RO, math.OC | Parallel and Proximal Constrained Linear-Quadratic Methods for Real-Time Nonlinear MPC はコメントを受け付けていません

Loss Symmetry and Noise Equilibrium of Stochastic Gradient Descent

要約 ニューラルネットワークの損失関数には対称性が豊富に存在する。我々は、連続対 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Loss Symmetry and Noise Equilibrium of Stochastic Gradient Descent はコメントを受け付けていません