cs.CL」カテゴリーアーカイブ

Accelerating Diffusion Large Language Models with SlowFast: The Three Golden Principles

要約 拡散ベースの言語モデル(DLLM)は、並列トークンの生成を有効にし、推論潜 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Accelerating Diffusion Large Language Models with SlowFast: The Three Golden Principles はコメントを受け付けていません

Multi-group Uncertainty Quantification for Long-form Text Generation

要約 過去の作品は、不確実性の定量化を大規模な言語モデル(LLM)出力にどのよう … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Multi-group Uncertainty Quantification for Long-form Text Generation はコメントを受け付けていません

Slimming Down LLMs Without Losing Their Minds

要約 このホワイトペーパーでは、パラメーター効率の高い方法(LORAおよびQlo … 続きを読む

カテゴリー: cs.AI, cs.CL | Slimming Down LLMs Without Losing Their Minds はコメントを受け付けていません

PLAY2PROMPT: Zero-shot Tool Instruction Optimization for LLM Agents via Tool Play

要約 大規模な言語モデル(LLM)は、特殊な外部ツールとますます統合されています … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | PLAY2PROMPT: Zero-shot Tool Instruction Optimization for LLM Agents via Tool Play はコメントを受け付けていません

The Diffusion Duality

要約 均一な状態の離散拡散モデルは、自己修正する固有の能力のために、テキスト生成 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | The Diffusion Duality はコメントを受け付けていません

BioClinical ModernBERT: A State-of-the-Art Long-Context Encoder for Biomedical and Clinical NLP

要約 エンコーダーベースのトランスモデルは、生物医学および臨床自然言語処理(NL … 続きを読む

カテゴリー: cs.AI, cs.CL | BioClinical ModernBERT: A State-of-the-Art Long-Context Encoder for Biomedical and Clinical NLP はコメントを受け付けていません

Breaking Bad Molecules: Are MLLMs Ready for Structure-Level Molecular Detoxification?

要約 毒性は、初期段階の医薬品開発不全の主な原因のままです。 分子設計と特性の予 … 続きを読む

カテゴリー: cs.AI, cs.CL | Breaking Bad Molecules: Are MLLMs Ready for Structure-Level Molecular Detoxification? はコメントを受け付けていません

Robustly Improving LLM Fairness in Realistic Settings via Interpretability

要約 大規模な言語モデル(LLM)は、高得着の雇用アプリケーションでますます展開 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Robustly Improving LLM Fairness in Realistic Settings via Interpretability はコメントを受け付けていません

GUARD: Guided Unlearning and Retention via Data Attribution for Large Language Models

要約 大規模な言語モデル(LLMS)での学習は、規制のコンプライアンス、著作権保 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | GUARD: Guided Unlearning and Retention via Data Attribution for Large Language Models はコメントを受け付けていません

Domain2Vec: Vectorizing Datasets to Find the Optimal Data Mixture without Training

要約 〜\ textsc {domain2vec}を紹介します。これは、データセ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Domain2Vec: Vectorizing Datasets to Find the Optimal Data Mixture without Training はコメントを受け付けていません