cs.LG」カテゴリーアーカイブ

Don’t lie to your friends: Learning what you know from collaborative self-play

要約 役立つアシスタントになるには、AIエージェントは自分の能力と制限に注意する … 続きを読む

カテゴリー: cs.CL, cs.LG | Don’t lie to your friends: Learning what you know from collaborative self-play はコメントを受け付けていません

Diversity-driven Data Selection for Language Model Tuning through Sparse Autoencoder

要約 命令チューニングデータは、データ収集と高速モデルの反復により、多くの場合数 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Diversity-driven Data Selection for Language Model Tuning through Sparse Autoencoder はコメントを受け付けていません

Rerouting Connection: Hybrid Computer Vision Analysis Reveals Visual Similarity Between Indus and Tibetan-Yi Corridor Writing Systems

要約 この論文は、詳細な人類学的枠組みと併せてハイブリッドCNNトランスフォーカ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Rerouting Connection: Hybrid Computer Vision Analysis Reveals Visual Similarity Between Indus and Tibetan-Yi Corridor Writing Systems はコメントを受け付けていません

Non-Determinism of ‘Deterministic’ LLM Settings

要約 LLM(大規模な言語モデル)開業医は、一般に、出力が決定論的と予想される設 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SE | Non-Determinism of ‘Deterministic’ LLM Settings はコメントを受け付けていません

Lean Formalization of Generalization Error Bound by Rademacher Complexity

要約 Lean 4定理を使用して、Rademacherの複雑さを使用して、一般化 … 続きを読む

カテゴリー: cs.CL, cs.LG, math.ST, stat.TH | Lean Formalization of Generalization Error Bound by Rademacher Complexity はコメントを受け付けていません

Self-Vocabularizing Training for Neural Machine Translation

要約 過去の語彙学習手法は、トレーニング前に関連する語彙を特定し、モデルトレーニ … 続きを読む

カテゴリー: cs.CL, cs.LG | Self-Vocabularizing Training for Neural Machine Translation はコメントを受け付けていません

CodingTeachLLM: Empowering LLM’s Coding Ability via AST Prior Knowledge

要約 この論文では、コーディング教育用に設計された大規模な言語モデル(LLM)で … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | CodingTeachLLM: Empowering LLM’s Coding Ability via AST Prior Knowledge はコメントを受け付けていません

Towards Robust and Parameter-Efficient Knowledge Unlearning for LLMs

要約 大規模な言語モデル(LLMS)は、大規模なテキストコーパスを事前に移動する … 続きを読む

カテゴリー: cs.CL, cs.LG | Towards Robust and Parameter-Efficient Knowledge Unlearning for LLMs はコメントを受け付けていません

Light-R1: Curriculum SFT, DPO and RL for Long COT from Scratch and Beyond

要約 このペーパーでは、再現可能で費用対効果の高い方法論を使用して長い推論モデル … 続きを読む

カテゴリー: cs.CL, cs.LG | Light-R1: Curriculum SFT, DPO and RL for Long COT from Scratch and Beyond はコメントを受け付けていません

1-2-3-Go! Policy Synthesis for Parameterized Markov Decision Processes via Decision-Tree Learning and Generalization

要約 確率的モデルチェックの進歩にもかかわらず、検証方法のスケーラビリティは限ら … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.LO, cs.SY, eess.SY | 1-2-3-Go! Policy Synthesis for Parameterized Markov Decision Processes via Decision-Tree Learning and Generalization はコメントを受け付けていません