-
最近の投稿
- Reservoir Computing: A New Paradigm for Neural Networks
- A Dynamic, Ordinal Gaussian Process Item Response Theoretic Model
- Solving the Paint Shop Problem with Flexible Management of Multi-Lane Buffers Using Reinforcement Learning and Action Masking
- MiLo: Efficient Quantized MoE Inference with Mixture of Low-Rank Compensators
- When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances
-
最近のコメント
表示できるコメントはありません。 cs.AI (36107) cs.CL (27319) cs.CR (2749) cs.CV (41949) cs.LG (41079) cs.RO (21304) cs.SY (3219) eess.IV (4921) eess.SY (3213) stat.ML (5379)
月別アーカイブ: 2025年4月
Cognitive Prompts Using Guilford’s Structure of Intellect Model
要約 大規模言語モデル(LLM)は強力な言語生成能力を示すが、構造化推論に苦戦す … 続きを読む
VinaBench: Benchmark for Faithful and Consistent Visual Narratives
要約 ビジュアル・ナラティブ生成は、テキスト・ナラティブを、テキストの内容を説明 … 続きを読む
SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors
要約 ニューラル・サロゲート・モデルは、データマイニングにおける強力かつ効率的な … 続きを読む
Scaling Video-Language Models to 10K Frames via Hierarchical Differential Distillation
要約 長時間のビデオ処理は、視覚言語モデル(VLM)に大きな課題を与える。既存の … 続きを読む
TROVE: A Challenge for Fine-Grained Text Provenance via Source Sentence Tracing and Relationship Classification
要約 LLMは、テキスト生成において驚くべき流暢さと一貫性を達成したが、その広範 … 続きを読む
Cognitive Memory in Large Language Models
要約 本論文では、ラージ・ランゲージ・モデル(LLM)における記憶メカニズムにつ … 続きを読む
Inference-Time Scaling for Generalist Reward Modeling
要約 強化学習(RL)は大規模言語モデル(LLM)のポストトレーニングに広く採用 … 続きを読む
ZClip: Adaptive Spike Mitigation for LLM Pre-Training
要約 大規模言語モデル(LLM)の学習には、勾配の不安定性や損失スパイクなど、多 … 続きを読む
UNDO: Understanding Distillation as Optimization
要約 知識蒸留は、大規模な言語モデル(LLM)の知識をより小さく、より効率的な生 … 続きを読む