cs.LG」カテゴリーアーカイブ

A Smooth Sea Never Made a Skilled $\texttt{SAILOR}$: Robust Imitation via Learning to Search

要約 模倣学習に対する行動クローニング(BC)アプローチの基本的な制限は、専門家 … 続きを読む

カテゴリー: cs.LG | A Smooth Sea Never Made a Skilled $\texttt{SAILOR}$: Robust Imitation via Learning to Search はコメントを受け付けていません

Power Law Guided Dynamic Sifting for Efficient Attention

要約 特に注意計算における高帯域幅メモリ(HBM)とSRAMの間のデータ転送中、 … 続きを読む

カテゴリー: cs.LG | Power Law Guided Dynamic Sifting for Efficient Attention はコメントを受け付けていません

Learning normalized image densities via dual score matching

要約 データからの学習確率モデルは多くの機械学習の努力の中心にありますが、次元の … 続きを読む

カテゴリー: cs.LG | Learning normalized image densities via dual score matching はコメントを受け付けていません

Generalizable, real-time neural decoding with hybrid state-space models

要約 神経活動のリアルタイムデコードは、閉ループ実験から脳コンピューター界面まで … 続きを読む

カテゴリー: cs.LG, q-bio.NC | Generalizable, real-time neural decoding with hybrid state-space models はコメントを受け付けていません

LSM-2: Learning from Incomplete Wearable Sensor Data

要約 機械学習における最近の進歩の基礎であるFoundationモデルは、主に完 … 続きを読む

カテゴリー: cs.LG | LSM-2: Learning from Incomplete Wearable Sensor Data はコメントを受け付けていません

Seeing the Invisible: Machine learning-Based QPI Kernel Extraction via Latent Alignment

要約 準粒子干渉(QPI)イメージングは​​、量子材料の電子構造を調査するための … 続きを読む

カテゴリー: cs.LG | Seeing the Invisible: Machine learning-Based QPI Kernel Extraction via Latent Alignment はコメントを受け付けていません

Admissibility of Completely Randomized Trials: A Large-Deviation Approach

要約 実験者が適応試験を実行するオプションを持っている場合、このオプションを無視 … 続きを読む

カテゴリー: cs.LG, econ.EM, stat.ML | Admissibility of Completely Randomized Trials: A Large-Deviation Approach はコメントを受け付けていません

The Common Pile v0.1: An 8TB Dataset of Public Domain and Openly Licensed Text

要約 大規模な言語モデル(LLM)は、通常、膨大な量の免許のないテキストで訓練さ … 続きを読む

カテゴリー: cs.CL, cs.LG | The Common Pile v0.1: An 8TB Dataset of Public Domain and Openly Licensed Text はコメントを受け付けていません

Diagonal Batching Unlocks Parallelism in Recurrent Memory Transformers for Long Contexts

要約 トランスモデルは、二次時間と線形メモリの複雑さのために、長いコンテキスト推 … 続きを読む

カテゴリー: cs.CL, cs.LG | Diagonal Batching Unlocks Parallelism in Recurrent Memory Transformers for Long Contexts はコメントを受け付けていません

The broader spectrum of in-context learning

要約 文脈のいくつかの例からタスクを学ぶ言語モデルの能力は、大きな関心を生み出し … 続きを読む

カテゴリー: cs.CL, cs.LG | The broader spectrum of in-context learning はコメントを受け付けていません