投稿者「jarxiv」のアーカイブ

AutoL2S: Auto Long-Short Reasoning for Efficient Large Language Models

要約 推論対応の大規模な言語モデル(LLMS)は、複雑な推論タスクで強力なパフォ … 続きを読む

カテゴリー: cs.CL, cs.LG | AutoL2S: Auto Long-Short Reasoning for Efficient Large Language Models はコメントを受け付けていません

How Do LLMs Perform Two-Hop Reasoning in Context?

要約 「ソクラテスは人間です。 すべての人間は致命的です。 したがって、ソクラテ … 続きを読む

カテゴリー: cs.AI, cs.CL | How Do LLMs Perform Two-Hop Reasoning in Context? はコメントを受け付けていません

Human-Centered Human-AI Collaboration (HCHAC)

要約 インテリジェントな時代において、人間とインテリジェントシステムとの相互作用 … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.HC | Human-Centered Human-AI Collaboration (HCHAC) はコメントを受け付けていません

Position: Don’t Use the CLT in LLM Evals With Fewer Than a Few Hundred Datapoints

要約 有効なエラーバーや有意性テストを含む、大規模な言語モデル(LLM)の厳密な … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Position: Don’t Use the CLT in LLM Evals With Fewer Than a Few Hundred Datapoints はコメントを受け付けていません

Learned Collusion

要約 Qラーニングは、利用可能な各アクションに関連付けられた継続値の推定値(Q値 … 続きを読む

カテゴリー: cs.AI, cs.GT, econ.TH | Learned Collusion はコメントを受け付けていません

On the Surprising Effectiveness of Large Learning Rates under Standard Width Scaling

要約 大規模なビジョンモデルと言語モデルをトレーニングするための主要なパラダイム … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | On the Surprising Effectiveness of Large Learning Rates under Standard Width Scaling はコメントを受け付けていません

Demystifying the Paradox of Importance Sampling with an Estimated History-Dependent Behavior Policy in Off-Policy Evaluation

要約 このホワイトペーパーでは、重要性サンプリングの行動ポリシーの推定に焦点を当 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Demystifying the Paradox of Importance Sampling with an Estimated History-Dependent Behavior Policy in Off-Policy Evaluation はコメントを受け付けていません

Novelty Detection in Reinforcement Learning with World Models

要約 世界モデルを使用した補強学習(RL)は、最近の大幅な成功を発見しています。 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY | Novelty Detection in Reinforcement Learning with World Models はコメントを受け付けていません

From Strangers to Assistants: Fast Desire Alignment for Embodied Agent-User Adaptation

要約 具体化されたエージェントは複雑な物理的タスクの実行に大きな進歩を遂げていま … 続きを読む

カテゴリー: cs.AI, cs.MA, cs.RO | From Strangers to Assistants: Fast Desire Alignment for Embodied Agent-User Adaptation はコメントを受け付けていません

Overcoming the Machine Penalty with Imperfectly Fair AI Agents

要約 急速な技術の進歩にもかかわらず、効果的な人間マシンの協力は依然として大きな … 続きを読む

カテゴリー: cs.AI, cs.GT, cs.HC, econ.GN, q-fin.EC | Overcoming the Machine Penalty with Imperfectly Fair AI Agents はコメントを受け付けていません