math.OC」カテゴリーアーカイブ

TinyMPC: Model-Predictive Control on Resource-Constrained Microcontrollers

要約 モデル予測制御 (MPC) は、複雑な制約を受ける高度に動的なロボット シ … 続きを読む

カテゴリー: cs.RO, cs.SY, eess.SY, math.OC | TinyMPC: Model-Predictive Control on Resource-Constrained Microcontrollers はコメントを受け付けていません

Minimizing the Thompson Sampling Regret-to-Sigma Ratio (TS-RSR): a provably efficient algorithm for batch Bayesian Optimization

要約 この論文では、バッチ ベイジアン最適化 (BO) の新しいアプローチを紹介 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Minimizing the Thompson Sampling Regret-to-Sigma Ratio (TS-RSR): a provably efficient algorithm for batch Bayesian Optimization はコメントを受け付けていません

Is Scaling Learned Optimizers Worth It? Evaluating The Value of VeLO’s 4000 TPU Months

要約 私たちは、汎用の「基礎」オプティマイザーをトレーニングするこれまでで最大規 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Is Scaling Learned Optimizers Worth It? Evaluating The Value of VeLO’s 4000 TPU Months はコメントを受け付けていません

Linear and nonlinear system identification under $\ell_1$- and group-Lasso regularization via L-BFGS-B

要約 この論文では、L-BFGS-B アルゴリズムに基づいて、おそらく $\el … 続きを読む

カテゴリー: cs.LG, cs.SY, eess.SY, math.OC | Linear and nonlinear system identification under $\ell_1$- and group-Lasso regularization via L-BFGS-B はコメントを受け付けていません

Public-data Assisted Private Stochastic Optimization: Power and Limitations

要約 私たちは、パブリックデータ支援差分プライベート (PA-DP) アルゴリズ … 続きを読む

カテゴリー: cs.CR, cs.LG, math.OC, stat.ML | Public-data Assisted Private Stochastic Optimization: Power and Limitations はコメントを受け付けていません

l1-norm regularized l1-norm best-fit lines

要約 この研究では、スパースでロバストな 1 次元部分空間を推定するための最適化 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | l1-norm regularized l1-norm best-fit lines はコメントを受け付けていません

Accelerating Convergence of Score-Based Diffusion Models, Provably

要約 スコアベースの拡散モデルは、顕著な経験的パフォーマンスを達成しますが、サン … 続きを読む

カテゴリー: cs.AI, cs.IT, cs.LG, math.IT, math.OC, stat.ML | Accelerating Convergence of Score-Based Diffusion Models, Provably はコメントを受け付けていません

Momentum Benefits Non-IID Federated Learning Simply and Provably

要約 フェデレーテッド ラーニングは大規模な機械学習の強力なパラダイムですが、信 … 続きを読む

カテゴリー: cs.LG, math.OC | Momentum Benefits Non-IID Federated Learning Simply and Provably はコメントを受け付けていません

Shuffling Momentum Gradient Algorithm for Convex Optimization

要約 確率的勾配降下法 (SGD) とその確率的バリアントは、大規模なアプリケー … 続きを読む

カテゴリー: cs.LG, math.OC | Shuffling Momentum Gradient Algorithm for Convex Optimization はコメントを受け付けていません

Sophia: A Scalable Stochastic Second-order Optimizer for Language Model Pre-training

要約 言語モデルの事前トレーニングに莫大なコストがかかることを考慮すると、最適化 … 続きを読む

カテゴリー: cs.CL, cs.LG, math.OC | Sophia: A Scalable Stochastic Second-order Optimizer for Language Model Pre-training はコメントを受け付けていません