月別アーカイブ: 2025年5月

Thinking beyond the anthropomorphic paradigm benefits LLM research

要約 擬人化、または人間の特性のテクノロジーへの帰属は、高度な技術的専門知識を持 … 続きを読む

カテゴリー: cs.CL | Thinking beyond the anthropomorphic paradigm benefits LLM research はコメントを受け付けていません

Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance

要約 大規模な言語モデル(LLMS)は、入力言語や出力言語とは異なる場合がある潜 … 続きを読む

カテゴリー: cs.CL | Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance はコメントを受け付けていません

Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions

要約 メモリは、大規模な言語モデル(LLMS)ベースのエージェントを支えるAIシ … 続きを読む

カテゴリー: cs.CL | Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions はコメントを受け付けていません

Accelerating Diffusion Language Model Inference via Efficient KV Caching and Guided Diffusion

要約 拡散言語モデルは、並列トークンの生成と固有の双方向性を提供し、自己回帰アプ … 続きを読む

カテゴリー: cs.CL | Accelerating Diffusion Language Model Inference via Efficient KV Caching and Guided Diffusion はコメントを受け付けていません

Beyond ‘Aha!’: Toward Systematic Meta-Abilities Alignment in Large Reasoning Models

要約 大規模な推論モデル(LRMS)は、既に長い考え方の推論のために潜在能力を持 … 続きを読む

カテゴリー: cs.CL | Beyond ‘Aha!’: Toward Systematic Meta-Abilities Alignment in Large Reasoning Models はコメントを受け付けていません

Scaling External Knowledge Input Beyond Context Windows of LLMs via Multi-Agent Collaboration

要約 推論後のテクニックの急速な進歩と推論と情報探索のために、大規模な言語モデル … 続きを読む

カテゴリー: cs.CL | Scaling External Knowledge Input Beyond Context Windows of LLMs via Multi-Agent Collaboration はコメントを受け付けていません

Are Language Models Consequentialist or Deontological Moral Reasoners?

要約 AIシステムがヘルスケア、法律、ガバナンスのアプリケーションをますますナビ … 続きを読む

カテゴリー: cs.CL | Are Language Models Consequentialist or Deontological Moral Reasoners? はコメントを受け付けていません

Hardware-Efficient Attention for Fast Decoding

要約 LLMデコードは、大きなバッチと長いコンテキストのためにボトルネックされて … 続きを読む

カテゴリー: cs.CL, cs.LG | Hardware-Efficient Attention for Fast Decoding はコメントを受け付けていません

Reinforcing General Reasoning without Verifiers

要約 最近のパラダイムは、検証可能な報酬に関するDeepSeek-R1-Zero … 続きを読む

カテゴリー: cs.CL, cs.LG | Reinforcing General Reasoning without Verifiers はコメントを受け付けていません

Select2Reason: Efficient Instruction-Tuning Data Selection for Long-CoT Reasoning

要約 事前に訓練された大規模な言語モデルにおける長い考え方の推論能力をアクティブ … 続きを読む

カテゴリー: cs.AI, cs.CL | Select2Reason: Efficient Instruction-Tuning Data Selection for Long-CoT Reasoning はコメントを受け付けていません