cs.LG」カテゴリーアーカイブ

Multimodal Survival Modeling in the Age of Foundation Models

要約 がんゲノムアトラス(TCGA)は、新しい発見を可能にし、その調和したゲノミ … 続きを読む

カテゴリー: cs.AI, cs.LG | Multimodal Survival Modeling in the Age of Foundation Models はコメントを受け付けていません

S-GRPO: Early Exit via Reinforcement Learning in Reasoning Models

要約 テスト時間スケーリングが大規模な言語モデルコミュニティに積極的な研究に焦点 … 続きを読む

カテゴリー: cs.AI, cs.LG | S-GRPO: Early Exit via Reinforcement Learning in Reasoning Models はコメントを受け付けていません

A constraints-based approach to fully interpretable neural networks for detecting learner behaviors

要約 教育における複雑な機械学習モデルの使用の増加は、その解釈可能性に関する懸念 … 続きを読む

カテゴリー: cs.AI, cs.LG | A constraints-based approach to fully interpretable neural networks for detecting learner behaviors はコメントを受け付けていません

The Leaderboard Illusion

要約 進捗状況の測定は、あらゆる科学分野の進歩の基本です。 ベンチマークがますま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, stat.ME | The Leaderboard Illusion はコメントを受け付けていません

Guiding Data Collection via Factored Scaling Curves

要約 大規模なデータセットで訓練された一般主義模倣学習ポリシーは、多様な操作タス … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO | Guiding Data Collection via Factored Scaling Curves はコメントを受け付けていません

BNEM: A Boltzmann Sampler Based on Bootstrapped Noised Energy Matching

要約 ボルツマン分布から独立した同一分布(IID)サンプルを生成できる効率的なサ … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.CO, stat.ML | BNEM: A Boltzmann Sampler Based on Bootstrapped Noised Energy Matching はコメントを受け付けていません

Emotion-Gradient Metacognitive RSI (Part I): Theoretical Foundations and Single-Agent Architecture

要約 感情勾配のメタ認知的再帰的自己改善(EG-MRSI)フレームワークを提示し … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.0 | Emotion-Gradient Metacognitive RSI (Part I): Theoretical Foundations and Single-Agent Architecture はコメントを受け付けていません

A Comparative Study on Dynamic Graph Embedding based on Mamba and Transformers

要約 動的グラフ埋め込みは、多様なドメイン全体で複雑な時間発生ネットワークをモデ … 続きを読む

カテゴリー: cs.AI, cs.LG | A Comparative Study on Dynamic Graph Embedding based on Mamba and Transformers はコメントを受け付けていません

Overflow Prevention Enhances Long-Context Recurrent LLMs

要約 LLMSの最近の傾向は、長いコンテキスト処理効率を改善する再発性亜科モデル … 続きを読む

カテゴリー: cs.AI, cs.LG | Overflow Prevention Enhances Long-Context Recurrent LLMs はコメントを受け付けていません

Learning Dynamics in Continual Pre-Training for Large Language Models

要約 継続的なトレーニング(CPT)は、特定のダウンストリームタスクに強力な基礎 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Learning Dynamics in Continual Pre-Training for Large Language Models はコメントを受け付けていません