math.OC」カテゴリーアーカイブ

Understanding the training of infinitely deep and wide ResNets with Conditional Optimal Transport

要約 私たちはディープ ニューラル ネットワークのトレーニングのための勾配流の収 … 続きを読む

カテゴリー: cs.LG, math.OC | Understanding the training of infinitely deep and wide ResNets with Conditional Optimal Transport はコメントを受け付けていません

Zeroth-Order Hard-Thresholding: Gradient Error vs. Expansivity

要約 $\ell_0$ 制約付き最適化は、スパース学習を実現するための基本的なア … 続きを読む

カテゴリー: cs.LG, math.OC | Zeroth-Order Hard-Thresholding: Gradient Error vs. Expansivity はコメントを受け付けていません

Decentralized Stochastic Subgradient Methods for Nonsmooth Nonconvex Optimization

要約 この論文では、非凸および非滑らかな目的関数を使用した分散最適化問題、特に非 … 続きを読む

カテゴリー: cs.LG, math.OC | Decentralized Stochastic Subgradient Methods for Nonsmooth Nonconvex Optimization はコメントを受け付けていません

Convergence of SGD for Training Neural Networks with Sliced Wasserstein Losses

要約 Optimal Transport は近年、特に確率尺度を比較する幾何学的 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR | Convergence of SGD for Training Neural Networks with Sliced Wasserstein Losses はコメントを受け付けていません

Properties of Discrete Sliced Wasserstein Losses

要約 スライス ワッサーシュタイン (SW) 距離は、確率尺度を比較するためのワ … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR, stat.ML | Properties of Discrete Sliced Wasserstein Losses はコメントを受け付けていません

Nonsmooth Implicit Differentiation: Deterministic and Stochastic Convergence Rates

要約 パラメトリック非微分可能収縮マップの固定小数点の導関数を効率的に計算する問 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Nonsmooth Implicit Differentiation: Deterministic and Stochastic Convergence Rates はコメントを受け付けていません

Global $\mathcal{L}^2$ minimization at uniform exponential rate via geometrically adapted gradient descent in Deep Learning

要約 深層学習ネットワークで $\mathcal{L}^2$ コスト関数の最小化 … 続きを読む

カテゴリー: 57R70, 62M45, cs.AI, cs.LG, math-ph, math.MP, math.OC, stat.ML | Global $\mathcal{L}^2$ minimization at uniform exponential rate via geometrically adapted gradient descent in Deep Learning はコメントを受け付けていません

Quantization Avoids Saddle Points in Distributed Optimization

要約 分散非凸最適化は、電力システム、スマート ビルディング、協調ロボット、車両 … 続きを読む

カテゴリー: cs.LG, math.OC | Quantization Avoids Saddle Points in Distributed Optimization はコメントを受け付けていません

Neur2RO: Neural Two-Stage Robust Optimization

要約 ロバスト最適化は、最悪の不確実性の下での意思決定の問題をモデル化して解決す … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Neur2RO: Neural Two-Stage Robust Optimization はコメントを受け付けていません

Synchronisation-Oriented Design Approach for Adaptive Control

要約 この研究は、モデル参照適応を実際の動的システムと仮想動的システムの間の同期 … 続きを読む

カテゴリー: cs.RO, cs.SY, eess.SY, math.OC | Synchronisation-Oriented Design Approach for Adaptive Control はコメントを受け付けていません