cs.LG」カテゴリーアーカイブ

Differentially Private Learned Indexes

要約 このペーパーでは、信頼できないプロバイダーが内容を明らかにすることなく暗号 … 続きを読む

カテゴリー: cs.CR, cs.DB, cs.LG | Differentially Private Learned Indexes はコメントを受け付けていません

Efficient Certificates of Anti-Concentration Beyond Gaussians

要約 等方的な位置にある高次元の点 $X=\{x_1, x_2,\ldots, … 続きを読む

カテゴリー: cs.DS, cs.LG, stat.ML | Efficient Certificates of Anti-Concentration Beyond Gaussians はコメントを受け付けていません

An Effective Theory of Bias Amplification

要約 機械学習モデルはデータに存在するバイアスを捉えて増幅する可能性があり、その … 続きを読む

カテゴリー: cs.CY, cs.LG, stat.ML | An Effective Theory of Bias Amplification はコメントを受け付けていません

A Comparative Analysis of Wealth Index Predictions in Africa between three Multi-Source Inference Models

要約 貧困マップ推論は研究の重要な焦点となっており、回帰モデルから表形式データ、 … 続きを読む

カテゴリー: cs.CY, cs.LG, physics.soc-ph | A Comparative Analysis of Wealth Index Predictions in Africa between three Multi-Source Inference Models はコメントを受け付けていません

On Homomorphic Encryption Based Strategies for Class Imbalance in Federated Learning

要約 トレーニング データセットのクラスの不均衡は、機械学習モデルの偏りや汎化の … 続きを読む

カテゴリー: cs.CR, cs.IT, cs.LG, math.IT | On Homomorphic Encryption Based Strategies for Class Imbalance in Federated Learning はコメントを受け付けていません

SoS Certifiability of Subgaussian Distributions and its Algorithmic Applications

要約 普遍定数 $C>0$ が存在し、すべての $d \in \mathbb N … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | SoS Certifiability of Subgaussian Distributions and its Algorithmic Applications はコメントを受け付けていません

The Group Robustness is in the Details: Revisiting Finetuning under Spurious Correlations

要約 最新の機械学習モデルは偽の相関に過度に依存する傾向があり、それが少数派グル … 続きを読む

カテゴリー: cs.LG | The Group Robustness is in the Details: Revisiting Finetuning under Spurious Correlations はコメントを受け付けていません

On learning higher-order cumulants in diffusion models

要約 拡散モデルがガウス相関を超える相関をどのように学習するかを分析するために、 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, hep-lat | On learning higher-order cumulants in diffusion models はコメントを受け付けていません

Reconstructing dynamics from sparse observations with no training on target system

要約 アプリケーションでは、対象となるシステムがこれまでに遭遇したことがなく、ま … 続きを読む

カテゴリー: cs.LG, nlin.CD, physics.data-an | Reconstructing dynamics from sparse observations with no training on target system はコメントを受け付けていません

Deep linear networks for regression are implicitly regularized towards flat minima

要約 ニューラル ネットワークのヘッセ行列の最大固有値、つまりシャープネスは、最 … 続きを読む

カテゴリー: cs.LG, stat.ML | Deep linear networks for regression are implicitly regularized towards flat minima はコメントを受け付けていません