cs.AI」カテゴリーアーカイブ

CoT-Kinetics: A Theoretical Modeling Assessing LRM Reasoning Process

要約 最近の大きな推論モデルは、推論を学ぶことにより、大規模な言語モデルの推論能 … 続きを読む

カテゴリー: cs.AI, cs.CL | CoT-Kinetics: A Theoretical Modeling Assessing LRM Reasoning Process はコメントを受け付けていません

AdaptThink: Reasoning Models Can Learn When to Think

要約 最近、大規模な推論モデルは、人間のような深い思考を採用することにより、さま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | AdaptThink: Reasoning Models Can Learn When to Think はコメントを受け付けていません

Overcoming Dependent Censoring in the Evaluation of Survival Models

要約 HarrellのConcordance Index(CI)やBrierスコ … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Overcoming Dependent Censoring in the Evaluation of Survival Models はコメントを受け付けていません

Learnware of Language Models: Specialized Small Language Models Can Do Big

要約 Learnwareパラダイムは、ユーザーがモデルの元の目的を超えて、タスク … 続きを読む

カテゴリー: cs.AI, cs.LG | Learnware of Language Models: Specialized Small Language Models Can Do Big はコメントを受け付けていません

Beyond Single Pass, Looping Through Time: KG-IRAG with Iterative Knowledge Retrieval

要約 Graph Retrieval-Aygmented Generation( … 続きを読む

カテゴリー: cs.AI, cs.MA | Beyond Single Pass, Looping Through Time: KG-IRAG with Iterative Knowledge Retrieval はコメントを受け付けていません

Greed is Good: A Unifying Perspective on Guided Generation

要約 トレーニングフリーガイド生成は、エンドユーザーが流れ/拡散モデルの生成プロ … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Greed is Good: A Unifying Perspective on Guided Generation はコメントを受け付けていません

Optimizing Anytime Reasoning via Budget Relative Policy Optimization

要約 スケーリングテスト時間計算は、大規模な言語モデル(LLM)の推論機能を強化 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Optimizing Anytime Reasoning via Budget Relative Policy Optimization はコメントを受け付けていません

Option-ID Based Elimination For Multiple Choice Questions

要約 複数選択の質問(MCQ)は、大規模な言語モデル(LLM)を評価するための一 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Option-ID Based Elimination For Multiple Choice Questions はコメントを受け付けていません

Trust, But Verify: A Self-Verification Approach to Reinforcement Learning with Verifiable Rewards

要約 大規模な言語モデル(LLMS)は、複雑な推論に大きな約束を示しており、検証 … 続きを読む

カテゴリー: cs.AI, cs.CL | Trust, But Verify: A Self-Verification Approach to Reinforcement Learning with Verifiable Rewards はコメントを受け付けていません

CIE: Controlling Language Model Text Generations Using Continuous Signals

要約 ユーザーの意図で言語モデルを調整することは、ユーザーエクスペリエンスを向上 … 続きを読む

カテゴリー: cs.AI, cs.CL | CIE: Controlling Language Model Text Generations Using Continuous Signals はコメントを受け付けていません