math.OC」カテゴリーアーカイブ

Stable Nonconvex-Nonconcave Training via Linear Interpolation

要約 この論文では、(大規模な) ニューラル ネットワーク トレーニングを安定化 … 続きを読む

カテゴリー: cs.LG, math.OC | Stable Nonconvex-Nonconcave Training via Linear Interpolation はコメントを受け付けていません

Smooth Tchebycheff Scalarization for Multi-Objective Optimization

要約 複数の目的の最適化問題は、現実世界の多くのアプリケーションで見られます。こ … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.NE, math.OC | Smooth Tchebycheff Scalarization for Multi-Objective Optimization はコメントを受け付けていません

Geometric structure of Deep Learning networks and construction of global ${\mathcal L}^2$ minimizers

要約 この論文では、パラメータ化されていない深層学習 (DL) ネットワークにお … 続きを読む

カテゴリー: 57R70, 62M45, cs.AI, cs.LG, math-ph, math.MP, math.OC, stat.ML | Geometric structure of Deep Learning networks and construction of global ${\mathcal L}^2$ minimizers はコメントを受け付けていません

Primal-Dual iLQR

要約 制約のない離散時間最適制御問題を解決するための新しいアルゴリズムを紹介しま … 続きを読む

カテゴリー: 49M15, cs.RO, G.1.6, math.OC | Primal-Dual iLQR はコメントを受け付けていません

ASAP-MPC: An Asynchronous Update Scheme for Online Motion Planning with Nonlinear Model Predictive Control

要約 この論文では、ドローンやモバイル プラットフォームなどのメカトロニクス モ … 続きを読む

カテゴリー: cs.RO, math.OC | ASAP-MPC: An Asynchronous Update Scheme for Online Motion Planning with Nonlinear Model Predictive Control はコメントを受け付けていません

Randomized Kaczmarz in Adversarial Distributed Setting

要約 敵対的なワーカーや破損したワーカーの存在に対して堅牢な大規模な分散手法を開 … 続きを読む

カテゴリー: 65F10, 65F20, 65K10, cs.CR, cs.LG, cs.NA, math.NA, math.OC | Randomized Kaczmarz in Adversarial Distributed Setting はコメントを受け付けていません

Learning How to Strategically Disclose Information

要約 戦略的情報開示の最も単純な形式では、情報受信者が関心のある個人情報にアクセ … 続きを読む

カテゴリー: cs.GT, cs.IT, cs.LG, cs.SY, eess.SY, math.IT, math.OC | Learning How to Strategically Disclose Information はコメントを受け付けていません

Can Direct Latent Model Learning Solve Linear Quadratic Gaussian Control?

要約 私たちは、未知の部分的に観測可能なシステムを制御することを目的として、潜在 … 続きを読む

カテゴリー: cs.LG, cs.SY, eess.SY, math.OC, stat.ML | Can Direct Latent Model Learning Solve Linear Quadratic Gaussian Control? はコメントを受け付けていません

Linear attention is (maybe) all you need (to understand transformer optimization)

要約 トランスフォーマーのトレーニングは難しいことで知られており、オプティマイザ … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Linear attention is (maybe) all you need (to understand transformer optimization) はコメントを受け付けていません

Implicit Regularization of Gradient Flow on One-Layer Softmax Attention

要約 キー重み行列とクエリ重み行列が個別にトレーニングされる、1 層ソフトマック … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, stat.ML | Implicit Regularization of Gradient Flow on One-Layer Softmax Attention はコメントを受け付けていません