math.OC」カテゴリーアーカイブ

ISEE.U: Distributed online active target localization with unpredictable targets

要約 この論文では、各ノードでの分散型のシンプルかつ高速な計算によって定義された … 続きを読む

カテゴリー: cs.LG, cs.RO, cs.SY, eess.SY, math.OC | ISEE.U: Distributed online active target localization with unpredictable targets はコメントを受け付けていません

SMT 2.0: A Surrogate Modeling Toolbox with a focus on Hierarchical and Mixed Variables Gaussian Processes

要約 サロゲート モデリング ツールボックス (SMT) は、サロゲート モデリ … 続きを読む

カテゴリー: cs.LG, math.OC, stat.CO | SMT 2.0: A Surrogate Modeling Toolbox with a focus on Hierarchical and Mixed Variables Gaussian Processes はコメントを受け付けていません

MMD-Regularized Unbalanced Optimal Transport

要約 最大平均不一致 (MMD) 正則化を使用して限界制約が強制される不平衡最適 … 続きを読む

カテゴリー: cs.LG, math.OC | MMD-Regularized Unbalanced Optimal Transport はコメントを受け付けていません

Double Pessimism is Provably Efficient for Distributionally Robust Offline Reinforcement Learning: Generic Algorithm and Robust Partial Coverage

要約 この論文では、分布的にロバストなオフライン強化学習 (ロバスト オフライン … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, stat.ML | Double Pessimism is Provably Efficient for Distributionally Robust Offline Reinforcement Learning: Generic Algorithm and Robust Partial Coverage はコメントを受け付けていません

Revisiting column-generation-based matheuristic for learning classification trees

要約 デシジョン ツリーは、機械学習 (ML) における分類問題を解決するための … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Revisiting column-generation-based matheuristic for learning classification trees はコメントを受け付けていません

Stability of Q-Learning Through Design and Optimism

要約 Q ラーニングは、1980 年代に Chris Watkins の論文で導 … 続きを読む

カテゴリー: 62L20, 68T05, 93E20, 93E35, cs.LG, cs.SY, eess.SY, math.OC | Stability of Q-Learning Through Design and Optimism はコメントを受け付けていません

Discriminative Bayesian filtering lends momentum to the stochastic Newton method for minimizing log-convex functions

要約 対数凸関数のセットの平均を最小化するために、確率的ニュートン法では、完全な … 続きを読む

カテゴリー: 49M15, 62M20, 90C15, 90C25, cs.LG, math.OC, stat.ML | Discriminative Bayesian filtering lends momentum to the stochastic Newton method for minimizing log-convex functions はコメントを受け付けていません

Adaptive SGD with Polyak stepsize and Line-search: Robust Convergence and Variance Reduction

要約 最近提案された SGD 用の確率的 Polyak ステップサイズ (SPS … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Adaptive SGD with Polyak stepsize and Line-search: Robust Convergence and Variance Reduction はコメントを受け付けていません

Bias and Extrapolation in Markovian Linear Stochastic Approximation with Constant Stepsizes

要約 一定のステップサイズとマルコフ データを使用した線形確率近似 (LSA) … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | Bias and Extrapolation in Markovian Linear Stochastic Approximation with Constant Stepsizes はコメントを受け付けていません

Breaking the Complexity Barrier in Compositional Minimax Optimization

要約 構成ミニマックス最適化は、強化学習のための分布的に堅牢なトレーニングやポリ … 続きを読む

カテゴリー: cs.LG, math.OC | Breaking the Complexity Barrier in Compositional Minimax Optimization はコメントを受け付けていません