cs.LG」カテゴリーアーカイブ

TreeRPO: Tree Relative Policy Optimization

要約 大規模な言語モデル(LLM)は、検証可能な報酬(RLVR)方法による強化学 … 続きを読む

カテゴリー: cs.AI, cs.LG | TreeRPO: Tree Relative Policy Optimization はコメントを受け付けていません

Counterfactual reasoning: an analysis of in-context emergence

要約 大規模なニューラル言語モデル(LMS)は、コンテキスト内学習において顕著な … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, math.ST, stat.TH | Counterfactual reasoning: an analysis of in-context emergence はコメントを受け付けていません

One Wave To Explain Them All: A Unifying Perspective On Feature Attribution

要約 機能の属性方法は、モデルの決定に影響を与える入力機能を識別することにより、 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | One Wave To Explain Them All: A Unifying Perspective On Feature Attribution はコメントを受け付けていません

Unleashing The Power of Pre-Trained Language Models for Irregularly Sampled Time Series

要約 ChatGPTなどの事前に訓練された言語モデル(PLMS)は、自然言語処理 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.AP | Unleashing The Power of Pre-Trained Language Models for Irregularly Sampled Time Series はコメントを受け付けていません

Mitigating Degree Bias Adaptively with Hard-to-Learn Nodes in Graph Contrastive Learning

要約 グラフニューラルネットワーク(GNNS)は、多くの場合、ノード分類タスクの … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Mitigating Degree Bias Adaptively with Hard-to-Learn Nodes in Graph Contrastive Learning はコメントを受け付けていません

The Lessons of Developing Process Reward Models in Mathematical Reasoning

要約 プロセス報酬モデル(PRM)は、推論プロセスで中間エラーを特定して軽減する … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | The Lessons of Developing Process Reward Models in Mathematical Reasoning はコメントを受け付けていません

MesaNet: Sequence Modeling by Locally Optimal Test-Time Training

要約 シーケンスモデリングは現在、SoftMaxの自己触媒を使用する因果変圧器ア … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | MesaNet: Sequence Modeling by Locally Optimal Test-Time Training はコメントを受け付けていません

Rethinking LLM Advancement: Compute-Dependent and Independent Paths to Progress

要約 大規模な言語モデル(LLM)開発を管理する規制の取り組みは、主に高性能計算 … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2 | Rethinking LLM Advancement: Compute-Dependent and Independent Paths to Progress はコメントを受け付けていません

Just Enough Thinking: Efficient Reasoning with Adaptive Length Penalties Reinforcement Learning

要約 大きな推論モデル(LRMS)は、推論時により多くのトークンを生成することに … 続きを読む

カテゴリー: cs.AI, cs.LG | Just Enough Thinking: Efficient Reasoning with Adaptive Length Penalties Reinforcement Learning はコメントを受け付けていません

Context is Key: A Benchmark for Forecasting with Essential Textual Information

要約 予測は、多くのドメインにわたる意思決定における重要なタスクです。 履歴数値 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Context is Key: A Benchmark for Forecasting with Essential Textual Information はコメントを受け付けていません