math.OC」カテゴリーアーカイブ

Don’t be so Monotone: Relaxing Stochastic Line Search in Over-Parameterized Models

要約 最近の研究では、現代の過剰パラメータ化設定において、ライン探索法が確率的勾 … 続きを読む

カテゴリー: cs.LG, math.OC | Don’t be so Monotone: Relaxing Stochastic Line Search in Over-Parameterized Models はコメントを受け付けていません

Saddle-to-Saddle Dynamics in Diagonal Linear Networks

要約 この論文では、消失初期化の極限における対角線形ネットワーク上の勾配流の軌跡 … 続きを読む

カテゴリー: cs.LG, math.OC | Saddle-to-Saddle Dynamics in Diagonal Linear Networks はコメントを受け付けていません

(S)GD over Diagonal Linear Networks: Implicit Regularisation, Large Stepsizes and Edge of Stability

要約 この論文では、対角線形ネットワーク上の勾配降下法 (GD) と確率的勾配降 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | (S)GD over Diagonal Linear Networks: Implicit Regularisation, Large Stepsizes and Edge of Stability はコメントを受け付けていません

Maximize to Explore: One Objective Function Fusing Estimation, Planning, and Exploration

要約 オンライン強化学習 (オンライン RL) では、サンプル効率の高い方法で最 … 続きを読む

カテゴリー: cs.AI, cs.GT, cs.LG, math.OC, stat.ML | Maximize to Explore: One Objective Function Fusing Estimation, Planning, and Exploration はコメントを受け付けていません

How to Train Your Neural Control Barrier Function: Learning Safety Filters for Complex Input-Constrained Systems

要約 コントロール バリア関数 (CBF) は、任意の入力に対する非線形動的シス … 続きを読む

カテゴリー: cs.RO, math.OC | How to Train Your Neural Control Barrier Function: Learning Safety Filters for Complex Input-Constrained Systems はコメントを受け付けていません

Convergence of Sign-based Random Reshuffling Algorithms for Nonconvex Optimization

要約 SignSGD は、通信効率が高いため、非凸最適化で人気があります。 しか … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC, stat.ML | Convergence of Sign-based Random Reshuffling Algorithms for Nonconvex Optimization はコメントを受け付けていません

Stable Nonconvex-Nonconcave Training via Linear Interpolation

要約 この論文では、(大規模な) ニューラル ネットワーク トレーニングを安定化 … 続きを読む

カテゴリー: cs.LG, math.OC | Stable Nonconvex-Nonconcave Training via Linear Interpolation はコメントを受け付けていません

Demystifying the Myths and Legends of Nonconvex Convergence of SGD

要約 確率的勾配降下法 (SGD) とそのバリアントは、非凸目的関数を使用した大 … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC | Demystifying the Myths and Legends of Nonconvex Convergence of SGD はコメントを受け付けていません

Policy Optimization for Continuous Reinforcement Learning

要約 私たちは、連続した時間と空間の設定で、割引された目的と確率的微分方程式によ … 続きを読む

カテゴリー: cs.LG, math.OC | Policy Optimization for Continuous Reinforcement Learning はコメントを受け付けていません

Understanding Reward Ambiguity Through Optimal Transport Theory in Inverse Reinforcement Learning

要約 逆強化学習 (IRL) の中心的な目的は、特定のデータを説明するだけでなく … 続きを読む

カテゴリー: cs.LG, cs.SY, eess.SY, math.OC | Understanding Reward Ambiguity Through Optimal Transport Theory in Inverse Reinforcement Learning はコメントを受け付けていません