math.OC」カテゴリーアーカイブ

Online Submodular Maximization via Online Convex Optimization

要約 オンライン設定における一般的なマトロイド制約の下での単調サブモジュラー最大 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Online Submodular Maximization via Online Convex Optimization はコメントを受け付けていません

Robust Nonlinear Reduced-Order Model Predictive Control

要約 現実世界のシステムは高次元の非線形ダイナミクスによって特徴付けられることが … 続きを読む

カテゴリー: cs.RO, cs.SY, eess.SY, math.OC | Robust Nonlinear Reduced-Order Model Predictive Control はコメントを受け付けていません

Symmetric Stair Preconditioning of Linear Systems for Parallel Trajectory Optimization

要約 軌道最適化問題を解決するための並列戦略への関心が高まっています。 軌道最適 … 続きを読む

カテゴリー: cs.RO, math.OC | Symmetric Stair Preconditioning of Linear Systems for Parallel Trajectory Optimization はコメントを受け付けていません

ELRA: Exponential learning rate adaption gradient descent optimization method

要約 我々は、新しい高速 (指数関数的レート適応)、ab initio (ハイパ … 続きを読む

カテゴリー: cs.LG, G.1.6, math.OC | ELRA: Exponential learning rate adaption gradient descent optimization method はコメントを受け付けていません

Generalized Regret Analysis of Thompson Sampling using Fractional Posteriors

要約 トンプソン サンプリング (TS) は、確率的マルチアーム バンディット問 … 続きを読む

カテゴリー: cs.LG, cs.SY, eess.SY, math.OC, math.ST, stat.ML, stat.TH | Generalized Regret Analysis of Thompson Sampling using Fractional Posteriors はコメントを受け付けていません

GTAdam: Gradient Tracking with Adaptive Momentum for Distributed Online Optimization

要約 この論文は、分散方式で、つまり中央コーディネーターを使用せずにローカルな計 … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | GTAdam: Gradient Tracking with Adaptive Momentum for Distributed Online Optimization はコメントを受け付けていません

Brand New K-FACs: Speeding up K-FAC with Online Decomposition Updates

要約 K-FAC (arXiv:1503.05671、arXiv:1602.01 … 続きを読む

カテゴリー: 65Fxx, 65Kxx, cs.LG, cs.NA, math.NA, math.OC | Brand New K-FACs: Speeding up K-FAC with Online Decomposition Updates はコメントを受け付けていません

An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization

要約 ノイズ関数評価のみを使用して、おそらく滑らかでも凸でもないリプシッツ対物レ … 続きを読む

カテゴリー: cs.LG, math.OC | An Algorithm with Optimal Dimension-Dependence for Zero-Order Nonsmooth Nonconvex Stochastic Optimization はコメントを受け付けていません

Adaptive Top-K in SGD for Communication-Efficient Distributed Learning

要約 勾配圧縮を使用した分散確率的勾配降下法 (SGD) は、分散学習を加速する … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | Adaptive Top-K in SGD for Communication-Efficient Distributed Learning はコメントを受け付けていません

A Tutorial on Distributed Optimization for Cooperative Robotics: from Setups and Algorithms to Toolboxes and Research Directions

要約 マルチロボット システムにおけるいくつかの興味深い問題は、分散最適化のフレ … 続きを読む

カテゴリー: cs.RO, math.OC | A Tutorial on Distributed Optimization for Cooperative Robotics: from Setups and Algorithms to Toolboxes and Research Directions はコメントを受け付けていません