cs.DS」カテゴリーアーカイブ

Streaming Algorithms for High-Dimensional Robust Statistics

要約 タイトル:高次元頑健統計のストリーミングアルゴリズム 要約: &#8211 … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | Streaming Algorithms for High-Dimensional Robust Statistics はコメントを受け付けていません

Fourier Analysis Meets Runtime Analysis: Precise Runtimes on Plateaus

要約 タイトル: フーリエ解析がランタイム解析と出会う:プラトー上の正確なランタ … 続きを読む

カテゴリー: cs.AI, cs.DS, cs.NE | Fourier Analysis Meets Runtime Analysis: Precise Runtimes on Plateaus はコメントを受け付けていません

Gradient-less Federated Gradient Boosting Trees with Learnable Learning Rates

要約 タイトル:学習率を学習可能にする勾配のないフェデレーテッド勾配ブースティン … 続きを読む

カテゴリー: cs.AI, cs.DC, cs.DS, cs.LG | Gradient-less Federated Gradient Boosting Trees with Learnable Learning Rates はコメントを受け付けていません

Online 2-stage Stable Matching

要約 タイトル:オンライン2ステージ安定マッチング 要約: – オン … 続きを読む

カテゴリー: cs.AI, cs.DS | Online 2-stage Stable Matching はコメントを受け付けていません

Robustified Learning for Online Optimization with Memory Costs

要約 タイトル:ロバスト化学習によるメモリコストを持つオンライン最適化 要約: … 続きを読む

カテゴリー: cs.DS, cs.LG | Robustified Learning for Online Optimization with Memory Costs はコメントを受け付けていません

Alternating Local Enumeration (TnALE): Solving Tensor Network Structure Search with Fewer Evaluations

要約 タイトル:Alternating Local Enumeration(Tn … 続きを読む

カテゴリー: cs.DS, cs.LG | Alternating Local Enumeration (TnALE): Solving Tensor Network Structure Search with Fewer Evaluations はコメントを受け付けていません

Differentially Private Bootstrap: New Privacy Analysis and Inference Strategies

要約 タイトル:差分プライバシー可能なブートストラップ:新しいプライバシー分析と … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.LG, stat.ML | Differentially Private Bootstrap: New Privacy Analysis and Inference Strategies はコメントを受け付けていません

How Well Does the Metropolis Algorithm Cope With Local Optima?

要約 タイトル:メトロポリスアルゴリズムは局所的最適解に対応できるか? 要約: … 続きを読む

カテゴリー: cs.AI, cs.DS, cs.NE | How Well Does the Metropolis Algorithm Cope With Local Optima? はコメントを受け付けていません

On the Convergence of AdaGrad(Norm) on $\R^{d}$: Beyond Convexity, Non-Asymptotic Rate and Acceleration

要約 タイトル: $\R^{d}$ 上の AdaGrad(Norm) の収束: … 続きを読む

カテゴリー: cs.DS, cs.LG | On the Convergence of AdaGrad(Norm) on $\R^{d}$: Beyond Convexity, Non-Asymptotic Rate and Acceleration はコメントを受け付けていません

Stochastic Gradient Methods with Compressed Communication for Decentralized Saddle Point Problems

要約 タイトル: 圧縮通信を用いた確率的勾配法による分散型サドルポイント問題の解 … 続きを読む

カテゴリー: cs.DC, cs.DS, cs.LG, math.OC | Stochastic Gradient Methods with Compressed Communication for Decentralized Saddle Point Problems はコメントを受け付けていません