stat.ML」カテゴリーアーカイブ

SCAFFLSA: Quantifying and Eliminating Heterogeneity Bias in Federated Linear Stochastic Approximation and Temporal Difference Learning

要約 この論文では、連合線形確率近似 (FedLSA) アルゴリズムの非漸近分析 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | SCAFFLSA: Quantifying and Eliminating Heterogeneity Bias in Federated Linear Stochastic Approximation and Temporal Difference Learning はコメントを受け付けていません

Better Batch for Deep Probabilistic Time Series Forecasting

要約 深層確率時系列予測は、非線形近似における優れたパフォーマンスと、意思決定に … 続きを読む

カテゴリー: cs.LG, stat.ML | Better Batch for Deep Probabilistic Time Series Forecasting はコメントを受け付けていません

Interpretable Multi-Source Data Fusion Through Latent Variable Gaussian Process

要約 人工知能 (AI) と機械学習 (ML) の出現により、科学および工学コミ … 続きを読む

カテゴリー: cs.LG, stat.ML | Interpretable Multi-Source Data Fusion Through Latent Variable Gaussian Process はコメントを受け付けていません

Position Paper: Bayesian Deep Learning in the Age of Large-Scale AI

要約 現在の深層学習研究の状況では、大規模な画像と言語のデータセットを含む教師あ … 続きを読む

カテゴリー: cs.LG, stat.ML | Position Paper: Bayesian Deep Learning in the Age of Large-Scale AI はコメントを受け付けていません

Provably Efficient UCB-type Algorithms For Learning Predictive State Representations

要約 一般的な逐次意思決定問題には、特殊なケースとしてマルコフ決定プロセス (M … 続きを読む

カテゴリー: cs.LG, stat.ML | Provably Efficient UCB-type Algorithms For Learning Predictive State Representations はコメントを受け付けていません

Variational Shapley Network: A Probabilistic Approach to Self-Explaining Shapley values with Uncertainty Quantification

要約 Shapley 値は、モデルの意思決定プロセスを解明するための機械学習 ( … 続きを読む

カテゴリー: cs.LG, stat.ML | Variational Shapley Network: A Probabilistic Approach to Self-Explaining Shapley values with Uncertainty Quantification はコメントを受け付けていません

Attention with Markov: A Framework for Principled Analysis of Transformers via Markov Chains

要約 近年、アテンションベースのトランスフォーマーは、自然言語を含むさまざまな分 … 続きを読む

カテゴリー: cs.CL, cs.IT, cs.LG, math.IT, stat.ML | Attention with Markov: A Framework for Principled Analysis of Transformers via Markov Chains はコメントを受け付けていません

Scaling Laws for Downstream Task Performance of Large Language Models

要約 スケーリングの法則は、大規模言語モデル (LLM) の設計の指針となる重要 … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | Scaling Laws for Downstream Task Performance of Large Language Models はコメントを受け付けていません

Weakly Supervised Learners for Correction of AI Errors with Provable Performance Guarantees

要約 我々は、アプリオリなパフォーマンス保証を備えた弱く監視された AI エラー … 続きを読む

カテゴリー: 68T05, 68T37, cs.AI, cs.LG, stat.ML | Weakly Supervised Learners for Correction of AI Errors with Provable Performance Guarantees はコメントを受け付けていません

On Sample-Efficient Offline Reinforcement Learning: Data Diversity, Posterior Sampling, and Beyond

要約 私たちは、オフライン強化学習 (RL) として一般に知られている、逐次的な … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | On Sample-Efficient Offline Reinforcement Learning: Data Diversity, Posterior Sampling, and Beyond はコメントを受け付けていません