月別アーカイブ: 2023年5月

Detecting the Severity of Major Depressive Disorder from Speech: A Novel HARD-Training Methodology

要約 大うつ病性障害 (MDD) は、高い社会経済的コストを伴う世界的に一般的な … 続きを読む

カテゴリー: cs.LG, cs.SD, eess.AS, q-bio.QM | Detecting the Severity of Major Depressive Disorder from Speech: A Novel HARD-Training Methodology はコメントを受け付けていません

Supervised learning with probabilistic morphisms and kernel mean embeddings

要約 この論文では、可測空間である入力空間 $\mathcal{X}$ とラベル … 続きを読む

カテゴリー: 18N99, 46N30, 60B10, 62G05, cs.LG, math.CT, math.FA, math.PR, math.ST, stat.TH | Supervised learning with probabilistic morphisms and kernel mean embeddings はコメントを受け付けていません

Incentivizing Honesty among Competitors in Collaborative Learning and Optimization

要約 協調学習手法には、単一エンティティのデータでトレーニングされたモデルよりも … 続きを読む

カテゴリー: cs.GT, cs.LG, stat.ML | Incentivizing Honesty among Competitors in Collaborative Learning and Optimization はコメントを受け付けていません

Non-adversarial training of Neural SDEs with signature kernel scores

要約 ニューラル SDE は、シーケンシャル データの連続時間生成モデルです。 … 続きを読む

カテゴリー: cs.LG, q-fin.CP, stat.ML | Non-adversarial training of Neural SDEs with signature kernel scores はコメントを受け付けていません

An Analysis of Quantile Temporal-Difference Learning

要約 私たちは、強化学習のいくつかの成功した大規模応用において重要なコンポーネン … 続きを読む

カテゴリー: cs.LG, stat.ML | An Analysis of Quantile Temporal-Difference Learning はコメントを受け付けていません

DoWG Unleashed: An Efficient Universal Parameter-Free Gradient Descent Method

要約 この論文では、実装が簡単なパラメーター不要の勾配ベースの新しいオプティマイ … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | DoWG Unleashed: An Efficient Universal Parameter-Free Gradient Descent Method はコメントを受け付けていません

Sharpness-Aware Minimization Leads to Low-Rank Features

要約 Sharpness-aware Minimization (SAM) は、 … 続きを読む

カテゴリー: cs.LG | Sharpness-Aware Minimization Leads to Low-Rank Features はコメントを受け付けていません

A Guide Through the Zoo of Biased SGD

要約 確率的勾配降下法 (SGD) は、おそらく現代の機械学習において最も重要な … 続きを読む

カテゴリー: cs.LG | A Guide Through the Zoo of Biased SGD はコメントを受け付けていません

Unbiased Compression Saves Communication in Distributed Optimization: When and How Much?

要約 通信圧縮は分散最適化における一般的な手法で、圧縮された勾配とモデル パラメ … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | Unbiased Compression Saves Communication in Distributed Optimization: When and How Much? はコメントを受け付けていません

Sequential Underspecified Instrument Selection for Cause-Effect Estimation

要約 操作変数 (IV) 法は、治療変数を直接実験することができない、観察されて … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Sequential Underspecified Instrument Selection for Cause-Effect Estimation はコメントを受け付けていません