cs.LG」カテゴリーアーカイブ

Hyperpruning: Efficient Search through Pruned Variants of Recurrent Neural Networks Leveraging Lyapunov Spectrum

要約 消費電力と貯蔵の利用に関して効率を改善するために、過剰なパラメータ化された … 続きを読む

カテゴリー: cs.LG | コメントする

Realistic Urban Traffic Generator using Decentralized Federated Learning for the SUMO simulator

要約 現実的な都市交通シミュレーションは、持続可能な都市計画とインテリジェント輸 … 続きを読む

カテゴリー: cs.LG | コメントする

Training Superior Sparse Autoencoders for Instruct Models

要約 大規模な言語モデル(LLM)がスケールと能力が成長するにつれて、それらの内 … 続きを読む

カテゴリー: cs.CL, cs.LG | コメントする

Representation Bending for Large Language Model Safety

要約 大規模な言語モデル(LLM)は強力なツールとして浮上していますが、有害なコ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

Is poisoning a real threat to LLM alignment? Maybe more so than you think

要約 人間のフィードバック(RLHF)による強化学習の最近の進歩は、大規模な言語 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

LLM Unlearning Should Be Form-Independent

要約 大規模な言語モデル(LLM)は、モデル内の望ましくない知識を消去または抑制 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | コメントする

Generalized Interpolating Discrete Diffusion

要約 最先端の言語モデルは次のトークン予測を通じて印象的な結果を達成しますが、す … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

MultiMatch: Multihead Consistency Regularization Matching for Semi-Supervised Text Classification

要約 擬似標識との共同トレーニングと一貫性の正規化のパラダイムを組み合わせた新し … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | コメントする

Improving large language models with concept-aware fine-tuning

要約 大規模な言語モデル(LLM)は、現代AIの基礎となっています。 ただし、次 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

Beyond Numeric Rewards: In-Context Dueling Bandits with LLM Agents

要約 コンテキスト内補強学習(ICRL)は、基礎モデルの時代の強化学習(RL)の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする