stat.ML」カテゴリーアーカイブ

Compression, Generalization and Learning

要約 圧縮関数は、その情報内容を保持しながら、観測セットを縮小サイズのサブセット … 続きを読む

カテゴリー: cs.AI, cs.LG, math.ST, stat.ML, stat.TH | Compression, Generalization and Learning はコメントを受け付けていません

Fun with Flags: Robust Principal Directions via Flag Manifolds

要約 主成分分析 (PCA) は、多様体や外れ値の汚染データへの拡張とともに、コ … 続きを読む

カテゴリー: cs.CV, cs.LG, math.DG, math.OC, stat.ML | Fun with Flags: Robust Principal Directions via Flag Manifolds はコメントを受け付けていません

Shared active subspace for multivariate vector-valued functions

要約 この論文では、多変量ベクトル値関数の共有アクティブ部分空間を計算するための … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Shared active subspace for multivariate vector-valued functions はコメントを受け付けていません

On the numerical reliability of nonsmooth autodiff: a MaxPool case study

要約 この論文では、非滑らかな MaxPool 演算を伴うニューラル ネットワー … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC, stat.ML | On the numerical reliability of nonsmooth autodiff: a MaxPool case study はコメントを受け付けていません

Diffusion Variational Inference: Diffusion Models as Expressive Variational Posteriors

要約 我々は、表現的な変分事後として拡散モデルに依存する潜在変数モデルの近似推論 … 続きを読む

カテゴリー: cs.LG, q-bio.QM, stat.ML | Diffusion Variational Inference: Diffusion Models as Expressive Variational Posteriors はコメントを受け付けていません

PAC-Bayes-Chernoff bounds for unbounded losses

要約 私たちは、無限の損失を伴う新しい高確率の PAC ベイズオラクルを提示しま … 続きを読む

カテゴリー: cs.LG, stat.ML | PAC-Bayes-Chernoff bounds for unbounded losses はコメントを受け付けていません

Nonlinear functional regression by functional deep neural network with kernel embedding

要約 音声認識、画像分類、自然言語処理など、科学技術のさまざまな分野におけるディ … 続きを読む

カテゴリー: cs.LG, stat.ML | Nonlinear functional regression by functional deep neural network with kernel embedding はコメントを受け付けていません

Class-wise Generalization Error: an Information-Theoretic Analysis

要約 教師あり学習の既存の一般化理論は通常、全体的なアプローチを採用し、データ分 … 続きを読む

カテゴリー: cs.LG, stat.ML | Class-wise Generalization Error: an Information-Theoretic Analysis はコメントを受け付けていません

Dagma-DCE: Interpretable, Non-Parametric Differentiable Causal Discovery

要約 微分可能な因果発見のための解釈可能でモデルに依存しないスキームである Da … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Dagma-DCE: Interpretable, Non-Parametric Differentiable Causal Discovery はコメントを受け付けていません

Annotation Sensitivity: Training Data Collection Methods Affect Model Performance

要約 人間のアノテーターからトレーニング データが収集される場合、アノテーション … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ME, stat.ML | Annotation Sensitivity: Training Data Collection Methods Affect Model Performance はコメントを受け付けていません