90C25」カテゴリーアーカイブ

All You Need is Resistance: On the Equivalence of Effective Resistance and Certain Optimal Transport Problems on Graphs

要約 グラフ上の効果的な抵抗と最適な輸送の分野には、組み合わせ論、幾何学、機械学 … 続きを読む

カテゴリー: 05C21, 05C50, 65K10, 68R10, 90C25, cs.DM, cs.LG, math.OC, math.PR | All You Need is Resistance: On the Equivalence of Effective Resistance and Certain Optimal Transport Problems on Graphs はコメントを受け付けていません

Safeguarding adaptive methods: global convergence of Barzilai-Borwein and other stepsize choices

要約 この論文では、凸最小化問題に対する適応手法の最近の進歩を活用して、Barz … 続きを読む

カテゴリー: 65K05, 90C06, 90C25, 90C30, 90C53, cs.LG, math.OC | Safeguarding adaptive methods: global convergence of Barzilai-Borwein and other stepsize choices はコメントを受け付けていません

Learning pseudo-contractive denoisers for inverse problems

要約 ディープ デノイザーは、信号および画像処理における逆問題の解決において優れ … 続きを読む

カテゴリー: 47J07, 68T07, 68U10, 90C25, 94A08, cs.CV | Learning pseudo-contractive denoisers for inverse problems はコメントを受け付けていません

DualFL: A Duality-based Federated Learning Algorithm with Communication Acceleration in the General Convex Regime

要約 我々は、フェデレーテッド ラーニングにおける分散最適化問題を解決するための … 続きを読む

カテゴリー: 68W15, 90C25, 90C46, cs.LG, math.OC | DualFL: A Duality-based Federated Learning Algorithm with Communication Acceleration in the General Convex Regime はコメントを受け付けていません

Stochastic Approximation with Decision-Dependent Distributions: Asymptotic Normality and Optimality

要約 決定依存の問題に対する確率的近似アルゴリズムを分析します。このアルゴリズム … 続きを読む

カテゴリー: 90C15, 90C25, cs.LG, math.OC, stat.ML | Stochastic Approximation with Decision-Dependent Distributions: Asymptotic Normality and Optimality はコメントを受け付けていません

Discriminative Bayesian filtering lends momentum to the stochastic Newton method for minimizing log-convex functions

要約 対数凸関数のセットの平均を最小化するために、確率的ニュートン法では、完全な … 続きを読む

カテゴリー: 49M15, 62M20, 90C15, 90C25, cs.LG, math.OC, stat.ML | Discriminative Bayesian filtering lends momentum to the stochastic Newton method for minimizing log-convex functions はコメントを受け付けていません

Restarts subject to approximate sharpness: A parameter-free and optimal scheme for first-order methods

要約 シャープネスとは、連続最適化におけるほぼ一般的な仮定で、目的関数の準最適化 … 続きを読む

カテゴリー: 65B99, 65K0, 68Q25, 90C25, 90C60, cs.CV, cs.LG, cs.NA, math.NA, math.OC | Restarts subject to approximate sharpness: A parameter-free and optimal scheme for first-order methods はコメントを受け付けていません