投稿者「jarxiv」のアーカイブ

Precise In-Parameter Concept Erasure in Large Language Models

要約 大規模な言語モデル(LLMS)は、多くの場合、下流の展開で望ましくない事前 … 続きを読む

カテゴリー: cs.CL | Precise In-Parameter Concept Erasure in Large Language Models はコメントを受け付けていません

AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling

要約 大規模な言語モデル(LLMS)は、さまざまなドメインで幅広い情報を取得しま … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | AutoElicit: Using Large Language Models for Expert Prior Elicitation in Predictive Modelling はコメントを受け付けていません

Personalized Causal Graph Reasoning for LLMs: A Case Study on Dietary Recommendations

要約 大規模な言語モデル(LLMS)は、一般的な推論のために共通の知識を効果的に … 続きを読む

カテゴリー: cs.CL | Personalized Causal Graph Reasoning for LLMs: A Case Study on Dietary Recommendations はコメントを受け付けていません

Bridging Supervised Learning and Reinforcement Learning in Math Reasoning

要約 強化学習(RL)は、バイナリ検証信号を通じて自己改善を可能にすることにより … 続きを読む

カテゴリー: cs.CL, cs.LG | Bridging Supervised Learning and Reinforcement Learning in Math Reasoning はコメントを受け付けていません

Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding

要約 拡散ベースの大手言語モデル(拡散LLM)は、並列デコード機能を備えた非自動 … 続きを読む

カテゴリー: cs.CL | Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding はコメントを受け付けていません

Stochastic Chameleons: Irrelevant Context Hallucinations Reveal Class-Based (Mis)Generalization in LLMs

要約 NLPベンチマーク上の大規模な言語モデル(LLMS)の広範な成功には、LL … 続きを読む

カテゴリー: cs.CL | Stochastic Chameleons: Irrelevant Context Hallucinations Reveal Class-Based (Mis)Generalization in LLMs はコメントを受け付けていません

Characterizing Bias: Benchmarking Large Language Models in Simplified versus Traditional Chinese

要約 大規模な言語モデル(LLM)の能力は、単純化された中国語と伝統的な中国語の … 続きを読む

カテゴリー: cs.CL, cs.CY | Characterizing Bias: Benchmarking Large Language Models in Simplified versus Traditional Chinese はコメントを受け付けていません

WebDancer: Towards Autonomous Information Seeking Agency

要約 複雑な現実世界の問題に対処するには、詳細な情報探索とマルチステップの推論が … 続きを読む

カテゴリー: cs.CL | WebDancer: Towards Autonomous Information Seeking Agency はコメントを受け付けていません

The Climb Carves Wisdom Deeper Than the Summit: On the Noisy Rewards in Learning to Reason

要約 強化学習(RL)を通じて推論するためのトレーニング後の大手言語モデル(LL … 続きを読む

カテゴリー: cs.CL | The Climb Carves Wisdom Deeper Than the Summit: On the Noisy Rewards in Learning to Reason はコメントを受け付けていません

GuessArena: Guess Who I Am? A Self-Adaptive Framework for Evaluating LLMs in Domain-Specific Knowledge and Reasoning

要約 大規模な言語モデル(LLMS)の評価は、伝統的に静的ベンチマークに依存して … 続きを読む

カテゴリー: cs.CL | GuessArena: Guess Who I Am? A Self-Adaptive Framework for Evaluating LLMs in Domain-Specific Knowledge and Reasoning はコメントを受け付けていません