月別アーカイブ: 2025年2月

Refining Integration-by-Parts Reduction of Feynman Integrals with Machine Learning

要約 Feynman Integralsの統合ごとの統合の削減により、理論的粒子 … 続きを読む

カテゴリー: cs.LG, hep-ph, hep-th | Refining Integration-by-Parts Reduction of Feynman Integrals with Machine Learning はコメントを受け付けていません

Distinguishing Cause from Effect with Causal Velocity Models

要約 制限されたモデルクラスで適合度を調べることにより、因果方向を推測するために … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Distinguishing Cause from Effect with Causal Velocity Models はコメントを受け付けていません

Data-Parallel Neural Network Training via Nonlinearly Preconditioned Trust-Region Method

要約 モデルとデータセットのサイズの継続的な成長により、並列トレーニング方法は、 … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA | Data-Parallel Neural Network Training via Nonlinearly Preconditioned Trust-Region Method はコメントを受け付けていません

Meta Audiobox Aesthetics: Unified Automatic Quality Assessment for Speech, Music, and Sound

要約 オーディオ美学の定量化は、主にその主観的な性質のために、人間の認識と文化的 … 続きを読む

カテゴリー: cs.LG, cs.SD, eess.AS | Meta Audiobox Aesthetics: Unified Automatic Quality Assessment for Speech, Music, and Sound はコメントを受け付けていません

From Restless to Contextual: A Thresholding Bandit Approach to Improve Finite-horizon Performance

要約 オンラインの落ち着きのない盗賊は、各エージェントをマルコフ決定プロセス(M … 続きを読む

カテゴリー: cs.LG | From Restless to Contextual: A Thresholding Bandit Approach to Improve Finite-horizon Performance はコメントを受け付けていません

TLXML: Task-Level Explanation of Meta-Learning via Influence Functions

要約 メタラーニングを介した適応スキームは、実際のアプリケーションのデータ不足ま … 続きを読む

カテゴリー: cs.LG | TLXML: Task-Level Explanation of Meta-Learning via Influence Functions はコメントを受け付けていません

Deep Dynamic Probabilistic Canonical Correlation Analysis

要約 このホワイトペーパーでは、ディープダイナミックの確率論的相関分析(D2PC … 続きを読む

カテゴリー: cs.LG, stat.ML | Deep Dynamic Probabilistic Canonical Correlation Analysis はコメントを受け付けていません

Efficient distributional regression trees learning algorithms for calibrated non-parametric probabilistic forecasts

要約 科学と工学の重要なアプリケーションのために信頼できるAIを開発するという視 … 続きを読む

カテゴリー: cs.DS, cs.LG | Efficient distributional regression trees learning algorithms for calibrated non-parametric probabilistic forecasts はコメントを受け付けていません

In-context denoising with one-layer transformers: connections between attention and associative memory retrieval

要約 現代のホップフィールドネットワークとしても知られる、注意ベースのアーキテク … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | In-context denoising with one-layer transformers: connections between attention and associative memory retrieval はコメントを受け付けていません

Ladder-residual: parallelism-aware architecture for accelerating large model inference with communication overlapping

要約 大規模な言語モデルの推論は、メモリ集約的で時間がかかる両方であり、多くの場 … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | Ladder-residual: parallelism-aware architecture for accelerating large model inference with communication overlapping はコメントを受け付けていません