投稿者「jarxiv」のアーカイブ

On the Convergence of Gradient Descent on Learning Transformers with Residual Connections

要約 トランスモデルは、多様なアプリケーションでの優れたパフォーマンスにより、さ … 続きを読む

カテゴリー: cs.LG, math.OC | On the Convergence of Gradient Descent on Learning Transformers with Residual Connections はコメントを受け付けていません

Conservative classifiers do consistently well with improving agents: characterizing statistical and online learning

要約 機械学習は、たとえば、求職者やローン申請の評価において、社会的意思決定にお … 続きを読む

カテゴリー: cs.GT, cs.LG, cs.MA | Conservative classifiers do consistently well with improving agents: characterizing statistical and online learning はコメントを受け付けていません

Continual Learning from Simulated Interactions via Multitask Prospective Rehearsal for Bionic Limb Behavior Modeling

要約 下肢切断と神経筋の障害は、可動性を厳しく制限し、従来の義肢を超えた進歩を必 … 続きを読む

カテゴリー: cs.LG, cs.RO | Continual Learning from Simulated Interactions via Multitask Prospective Rehearsal for Bionic Limb Behavior Modeling はコメントを受け付けていません

Learning long range dependencies through time reversal symmetry breaking

要約 Deep State Space Models(SSMS)は、RNNが動的 … 続きを読む

カテゴリー: cs.LG | Learning long range dependencies through time reversal symmetry breaking はコメントを受け付けていません

Tight analyses of first-order methods with error feedback

要約 エージェント間の通信は、分散学習における主要な計算ボトルネックになることが … 続きを読む

カテゴリー: cs.DC, cs.LG, math.OC | Tight analyses of first-order methods with error feedback はコメントを受け付けていません

How to Unlock Time Series Editing? Diffusion-Driven Approach with Multi-Grained Control

要約 時系列の生成における最近の進歩は有望であるが、生成されたシーケンスの制御特 … 続きを読む

カテゴリー: cs.LG | How to Unlock Time Series Editing? Diffusion-Driven Approach with Multi-Grained Control はコメントを受け付けていません

Learning Beyond Experience: Generalizing to Unseen State Space with Reservoir Computing

要約 機械学習技術は、観察されたデータからのみ動的システムをモデル化するための効 … 続きを読む

カテゴリー: cs.LG, math.DS, nlin.CD, physics.comp-ph | Learning Beyond Experience: Generalizing to Unseen State Space with Reservoir Computing はコメントを受け付けていません

A Smooth Sea Never Made a Skilled $\texttt{SAILOR}$: Robust Imitation via Learning to Search

要約 模倣学習に対する行動クローニング(BC)アプローチの基本的な制限は、専門家 … 続きを読む

カテゴリー: cs.LG | A Smooth Sea Never Made a Skilled $\texttt{SAILOR}$: Robust Imitation via Learning to Search はコメントを受け付けていません

Power Law Guided Dynamic Sifting for Efficient Attention

要約 特に注意計算における高帯域幅メモリ(HBM)とSRAMの間のデータ転送中、 … 続きを読む

カテゴリー: cs.LG | Power Law Guided Dynamic Sifting for Efficient Attention はコメントを受け付けていません

Learning normalized image densities via dual score matching

要約 データからの学習確率モデルは多くの機械学習の努力の中心にありますが、次元の … 続きを読む

カテゴリー: cs.LG | Learning normalized image densities via dual score matching はコメントを受け付けていません