cs.LG」カテゴリーアーカイブ

On Learning Verifiers for Chain-of-Thought Reasoning

要約 考え方の推論は、複雑な数学的および論理的な問題を解決するための強力なアプロ … 続きを読む

カテゴリー: cs.LG | On Learning Verifiers for Chain-of-Thought Reasoning はコメントを受け付けていません

AstroVisBench: A Code Benchmark for Scientific Computing and Visualization in Astronomy

要約 大規模な言語モデル(LLM)は、文献を統合し、研究の質問に答え、研究のアイ … 続きを読む

カテゴリー: astro-ph.IM, cs.CL, cs.LG | AstroVisBench: A Code Benchmark for Scientific Computing and Visualization in Astronomy はコメントを受け付けていません

Unsupervised Post-Training for Multi-Modal LLM Reasoning via GRPO

要約 トレーニング後の段階でのマルチモーダル大手言語モデル(MLLMS)の改善は … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Unsupervised Post-Training for Multi-Modal LLM Reasoning via GRPO はコメントを受け付けていません

FitCF: A Framework for Automatic Feature Importance-guided Counterfactual Example Generation

要約 反事実的な例は、モデルを改善するための貴重なデータとして、およびモデルの行 … 続きを読む

カテゴリー: cs.CL, cs.LG | FitCF: A Framework for Automatic Feature Importance-guided Counterfactual Example Generation はコメントを受け付けていません

Closed-Form Training Dynamics Reveal Learned Features and Linear Structure in Word2Vec-like Models

要約 Word2vecなどの自己監視ワード埋め込みアルゴリズムは、言語モデリング … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | Closed-Form Training Dynamics Reveal Learned Features and Linear Structure in Word2Vec-like Models はコメントを受け付けていません

AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling

要約 大規模な言語モデル(LLMS)は、さまざまなドメインで幅広い情報を取得しま … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling はコメントを受け付けていません

Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

要約 強化学習(RL)は、バイナリ検証信号を通じて自己改善を可能にすることにより … 続きを読む

カテゴリー: cs.CL, cs.LG | Bridging Supervised Learning and Reinforcement Learning in Math Reasoning はコメントを受け付けていません

AutoL2S: Auto Long-Short Reasoning for Efficient Large Language Models

要約 推論対応の大規模な言語モデル(LLMS)は、複雑な推論タスクで強力なパフォ … 続きを読む

カテゴリー: cs.CL, cs.LG | AutoL2S: Auto Long-Short Reasoning for Efficient Large Language Models はコメントを受け付けていません

Position: Don’t Use the CLT in LLM Evals With Fewer Than a Few Hundred Datapoints

要約 有効なエラーバーや有意性テストを含む、大規模な言語モデル(LLM)の厳密な … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Position: Don’t Use the CLT in LLM Evals With Fewer Than a Few Hundred Datapoints はコメントを受け付けていません

On the Surprising Effectiveness of Large Learning Rates under Standard Width Scaling

要約 大規模なビジョンモデルと言語モデルをトレーニングするための主要なパラダイム … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | On the Surprising Effectiveness of Large Learning Rates under Standard Width Scaling はコメントを受け付けていません