stat.ML」カテゴリーアーカイブ

GLOBE-CE: A Translation-Based Approach for Global Counterfactual Explanations

要約 反事実の説明は、説明可能性に関して広く研究されており、公平性、求償権、およ … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.LG, stat.ML | GLOBE-CE: A Translation-Based Approach for Global Counterfactual Explanations はコメントを受け付けていません

PAC-Bayesian Generalization Bounds for Adversarial Generative Models

要約 PAC ベイズ理論を生成モデルに拡張し、ワッサーシュタイン距離と総変動距離 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | PAC-Bayesian Generalization Bounds for Adversarial Generative Models はコメントを受け付けていません

Large Language Models as Tool Makers

要約 最近の研究では、外部ツールの使用により大規模言語モデル (LLM) の問題 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, stat.ML | Large Language Models as Tool Makers はコメントを受け付けていません

On Calibrating Diffusion Probabilistic Models

要約 最近、拡散確率モデル (DPM) は、さまざまな生成タスクにおいて有望な結 … 続きを読む

カテゴリー: cs.CV, cs.LG, stat.ML | On Calibrating Diffusion Probabilistic Models はコメントを受け付けていません

Manifold Regularization for Memory-Efficient Training of Deep Neural Networks

要約 機械学習およびディープラーニングのコミュニティにおける一般的な傾向の 1 … 続きを読む

カテゴリー: cs.CV, cs.LG, stat.ML | Manifold Regularization for Memory-Efficient Training of Deep Neural Networks はコメントを受け付けていません

Koopman Kernel Regression

要約 強化学習などの意思決定のための多くの機械学習アプローチは、エージェントの状 … 続きを読む

カテゴリー: cs.LG, cs.SY, eess.SY, math.DS, stat.ML | Koopman Kernel Regression はコメントを受け付けていません

Incentivizing Honesty among Competitors in Collaborative Learning and Optimization

要約 協調学習手法には、単一エンティティのデータでトレーニングされたモデルよりも … 続きを読む

カテゴリー: cs.GT, cs.LG, stat.ML | Incentivizing Honesty among Competitors in Collaborative Learning and Optimization はコメントを受け付けていません

Non-adversarial training of Neural SDEs with signature kernel scores

要約 ニューラル SDE は、シーケンシャル データの連続時間生成モデルです。 … 続きを読む

カテゴリー: cs.LG, q-fin.CP, stat.ML | Non-adversarial training of Neural SDEs with signature kernel scores はコメントを受け付けていません

An Analysis of Quantile Temporal-Difference Learning

要約 私たちは、強化学習のいくつかの成功した大規模応用において重要なコンポーネン … 続きを読む

カテゴリー: cs.LG, stat.ML | An Analysis of Quantile Temporal-Difference Learning はコメントを受け付けていません

DoWG Unleashed: An Efficient Universal Parameter-Free Gradient Descent Method

要約 この論文では、実装が簡単なパラメーター不要の勾配ベースの新しいオプティマイ … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | DoWG Unleashed: An Efficient Universal Parameter-Free Gradient Descent Method はコメントを受け付けていません