math.OC」カテゴリーアーカイブ

Policy Gradient Methods for Discrete Time Linear Quadratic Regulator With Random Parameters

要約 本論文では,時間に対して独立かつ同次に分布するランダムなパラメータを持つ離 … 続きを読む

カテゴリー: cs.LG, math.OC | Policy Gradient Methods for Discrete Time Linear Quadratic Regulator With Random Parameters はコメントを受け付けていません

New Characterizations and Efficient Local Search for General Integer Linear Programming

要約 整数線形計画法(ILP)は、実用的な組合せ最適化問題を幅広くモデル化し、産 … 続きを読む

カテゴリー: 90C06, 90C10, cs.AI, I.2.8, math.OC | New Characterizations and Efficient Local Search for General Integer Linear Programming はコメントを受け付けていません

Dimensionless Policies based on the Buckingham $π$ Theorem: Is This a Good Way to Generalize Numerical Results?

要約 コンテキスト (モーション コントロールの問題を定義する変数のリスト) が … 続きを読む

カテゴリー: 00A73, 68T40, 70Q05 (Primary), 93C85, cs.AI, cs.RO, cs.SY, eess.SY, math.OC | Dimensionless Policies based on the Buckingham $π$ Theorem: Is This a Good Way to Generalize Numerical Results? はコメントを受け付けていません

Efficient Model-Free Exploration in Low-Rank MDPs

要約 強化学習における主な課題は、一般化と関数近似が必要な高次元領域を探索するた … 続きを読む

カテゴリー: cs.LG, math.OC | Efficient Model-Free Exploration in Low-Rank MDPs はコメントを受け付けていません

Convex Hulls of Reachable Sets

要約 我々は、境界のある外乱と不確実な初期条件を伴う、到達可能な非線形システムの … 続きを読む

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY, math.OC | Convex Hulls of Reachable Sets はコメントを受け付けていません

Heavy-Tailed Class Imbalance and Why Adam Outperforms Gradient Descent on Language Models

要約 Adam は、大規模な言語トランスフォーマーの最適化において勾配降下法を上 … 続きを読む

カテゴリー: cs.CL, cs.LG, math.OC, stat.ML | Heavy-Tailed Class Imbalance and Why Adam Outperforms Gradient Descent on Language Models はコメントを受け付けていません

Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality

要約 マルチタスク線形回帰のインコンテキスト学習のためのマルチヘッド ソフトマッ … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, math.ST, stat.ML, stat.TH | Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality はコメントを受け付けていません

Taming Nonconvex Stochastic Mirror Descent with General Bregman Divergence

要約 このペーパーでは、現代の非凸最適化設定における確率的ミラー降下法 (SMD … 続きを読む

カテゴリー: 90C15, 90C26, cs.LG, G.1.6, math.OC | Taming Nonconvex Stochastic Mirror Descent with General Bregman Divergence はコメントを受け付けていません

Robustly Learning Single-Index Models via Alignment Sharpness

要約 不可知論的モデルにおける $L_2^2$ 損失の下での単一インデックス モ … 続きを読む

カテゴリー: cs.DS, cs.LG, math.OC, math.ST, stat.ML, stat.TH | Robustly Learning Single-Index Models via Alignment Sharpness はコメントを受け付けていません

Variational Learning is Effective for Large Deep Networks

要約 変分学習は大規模なニューラル ネットワークには効果がないという一般的な考え … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, math.OC, stat.ML | Variational Learning is Effective for Large Deep Networks はコメントを受け付けていません