stat.ML」カテゴリーアーカイブ

On the Convergence of Locally Adaptive and Scalable Diffusion-Based Sampling Methods for Deep Bayesian Neural Network Posteriors

要約 ディープ ニューラル ネットワークで堅牢な不確実性の定量化を達成することは … 続きを読む

カテゴリー: cs.LG, stat.ML | On the Convergence of Locally Adaptive and Scalable Diffusion-Based Sampling Methods for Deep Bayesian Neural Network Posteriors はコメントを受け付けていません

Multifidelity linear regression for scientific machine learning from scarce data

要約 特定のパラメーター化されたモデル クラスのパラメーターをデータに適合させる … 続きを読む

カテゴリー: cs.CE, cs.LG, stat.ML | Multifidelity linear regression for scientific machine learning from scarce data はコメントを受け付けていません

Extracting Explanations, Justification, and Uncertainty from Black-Box Deep Neural Networks

要約 ディープ ニューラル ネットワーク (DNN) は、本質的に、経験的に正当 … 続きを読む

カテゴリー: cs.LG, I.2.10, stat.ML | Extracting Explanations, Justification, and Uncertainty from Black-Box Deep Neural Networks はコメントを受け付けていません

When can we Approximate Wide Contrastive Models with Neural Tangent Kernels and Principal Component Analysis?

要約 対照学習は、ラベルのないデータから表現を学習するパラダイムであり、画像デー … 続きを読む

カテゴリー: cs.LG, stat.ML | When can we Approximate Wide Contrastive Models with Neural Tangent Kernels and Principal Component Analysis? はコメントを受け付けていません

Can Direct Latent Model Learning Solve Linear Quadratic Gaussian Control?

要約 私たちは、未知の部分的に観測可能なシステムを制御することを目的として、潜在 … 続きを読む

カテゴリー: cs.LG, cs.SY, eess.SY, math.OC, stat.ML | Can Direct Latent Model Learning Solve Linear Quadratic Gaussian Control? はコメントを受け付けていません

Neural reproducing kernel Banach spaces and representer theorems for deep networks

要約 ニューラル ネットワークによって定義される関数空間を研究することは、対応す … 続きを読む

カテゴリー: cs.LG, math.FA, stat.ML | Neural reproducing kernel Banach spaces and representer theorems for deep networks はコメントを受け付けていません

Efficient Combinatorial Optimization via Heat Diffusion

要約 組み合わせ最適化問題は広く普及していますが、その離散的な性質により本質的に … 続きを読む

カテゴリー: cs.LG, math.CO, physics.app-ph, stat.ML | Efficient Combinatorial Optimization via Heat Diffusion はコメントを受け付けていません

Verifix: Post-Training Correction to Improve Label Noise Robustness with Verified Samples

要約 ラベルの破損 (トレーニング サンプルに不正なラベルが付けられている場合) … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Verifix: Post-Training Correction to Improve Label Noise Robustness with Verified Samples はコメントを受け付けていません

Human Alignment of Large Language Models through Online Preference Optimisation

要約 言語モデルの出力を人間の好みと確実に一致させることは、便利で安全、快適なユ … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Human Alignment of Large Language Models through Online Preference Optimisation はコメントを受け付けていません

Implicit Regularization of Gradient Flow on One-Layer Softmax Attention

要約 キー重み行列とクエリ重み行列が個別にトレーニングされる、1 層ソフトマック … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, stat.ML | Implicit Regularization of Gradient Flow on One-Layer Softmax Attention はコメントを受け付けていません