cs.CL」カテゴリーアーカイブ

Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs

要約 Federated Learning(FL)は、クライアント間の直接データ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Mitigating Unintended Memorization with LoRA in Federated Learning for LLMs はコメントを受け付けていません

Flexible and Efficient Grammar-Constrained Decoding

要約 大規模な言語モデル(LLM)は、コードスニペットやフォーマットされたデータ … 続きを読む

カテゴリー: cs.AI, cs.CL | Flexible and Efficient Grammar-Constrained Decoding はコメントを受け付けていません

Simplicity Prevails: Rethinking Negative Preference Optimization for LLM Unlearning

要約 この作業は、モデルのユーティリティを維持しながら、不要なデータの影響(著作 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Simplicity Prevails: Rethinking Negative Preference Optimization for LLM Unlearning はコメントを受け付けていません

Masked Diffusion Models are Secretly Time-Agnostic Masked Models and Exploit Inaccurate Categorical Sampling

要約 マスクされた拡散モデル(MDMS)は、他の離散拡散モデルよりも優れたパフォ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Masked Diffusion Models are Secretly Time-Agnostic Masked Models and Exploit Inaccurate Categorical Sampling はコメントを受け付けていません

Joint MoE Scaling Laws: Mixture of Experts Can Be Memory Efficient

要約 専門家(MOE)のアーキテクチャの混合は、大規模な機械学習モデルの研究と現 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Joint MoE Scaling Laws: Mixture of Experts Can Be Memory Efficient はコメントを受け付けていません

Lost in Time: Clock and Calendar Understanding Challenges in Multimodal LLMs

要約 視覚表現からの時間を理解することは基本的な認知スキルですが、マルチモーダル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV | Lost in Time: Clock and Calendar Understanding Challenges in Multimodal LLMs はコメントを受け付けていません

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

要約 大規模なマルチモーダル言語モデルの出現により、Scienceは現在、AIベ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation はコメントを受け付けていません

The Best Instruction-Tuning Data are Those That Fit

要約 高品質の監視された微調整(SFT)データは、前処理された大手言語モデル(L … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | The Best Instruction-Tuning Data are Those That Fit はコメントを受け付けていません

Long-context Language Models Are Not Good At ALL Retrieval Tasks Without Sufficient Steps

要約 広範なコンテキストウィンドウを特徴とする長い文字モデル(LCLMS)が人気 … 続きを読む

カテゴリー: cs.CL | Long-context Language Models Are Not Good At ALL Retrieval Tasks Without Sufficient Steps はコメントを受け付けていません

MIDAS: Multi-level Intent, Domain, And Slot Knowledge Distillation for Multi-turn NLU

要約 大規模な言語モデル(LLM)はコヒーレントで文脈的に関連するテキストを生成 … 続きを読む

カテゴリー: cs.CL | MIDAS: Multi-level Intent, Domain, And Slot Knowledge Distillation for Multi-turn NLU はコメントを受け付けていません