月別アーカイブ: 2024年7月

Fundamental Limits of Prompt Compression: A Rate-Distortion Framework for Black-Box Language Models

要約 私たちは、大規模言語モデル (LLM) のプロンプト圧縮の問題を形式化し、 … 続きを読む

カテゴリー: cs.CL, cs.IT, cs.LG, math.IT | Fundamental Limits of Prompt Compression: A Rate-Distortion Framework for Black-Box Language Models はコメントを受け付けていません

Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners

要約 大規模言語モデル (LLM) は、優れたパフォーマンスと堅牢な演繹機能を備 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners はコメントを受け付けていません

Attention Is All You Need But You Don’t Need All Of It For Inference of Large Language Models

要約 LLM に対する推論の需要はここ数カ月で急増しており、アテンション レイヤ … 続きを読む

カテゴリー: cs.CL, cs.LG | Attention Is All You Need But You Don’t Need All Of It For Inference of Large Language Models はコメントを受け付けていません

Key-Point-Driven Mathematical Reasoning Distillation of Large Language Model

要約 大規模言語モデル (LLM) は、膨大なパラメータ数と膨大なデータセットで … 続きを読む

カテゴリー: cs.AI, cs.CL | Key-Point-Driven Mathematical Reasoning Distillation of Large Language Model はコメントを受け付けていません

General-Purpose Retrieval-Enhanced Medical Prediction Model Using Near-Infinite History

要約 機械学習 (ML) は最近、電子医療記録 (EHR) を使用した医療予測に … 続きを読む

カテゴリー: cs.CL, cs.LG | General-Purpose Retrieval-Enhanced Medical Prediction Model Using Near-Infinite History はコメントを受け付けていません

MAPLE: Multilingual Evaluation of Parameter Efficient Finetuning of Large Language Models

要約 Parameter Efficient Finetuning (PEFT) … 続きを読む

カテゴリー: cs.CL | MAPLE: Multilingual Evaluation of Parameter Efficient Finetuning of Large Language Models はコメントを受け付けていません

Targeted Latent Adversarial Training Improves Robustness to Persistent Harmful Behaviors in LLMs

要約 大規模言語モデル (LLM) は、明示的に微調整されていないように望ましく … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Targeted Latent Adversarial Training Improves Robustness to Persistent Harmful Behaviors in LLMs はコメントを受け付けていません

SETTP: Style Extraction and Tunable Inference via Dual-level Transferable Prompt Learning

要約 自然言語処理における重要な研究方向であるテキスト スタイルの転送は、テキス … 続きを読む

カテゴリー: cs.CL | SETTP: Style Extraction and Tunable Inference via Dual-level Transferable Prompt Learning はコメントを受け付けていません

An Empirical Study of Retrieval Augmented Generation with Chain-of-Thought

要約 2022 年末に ChatGPT が発表されて以来、ChatGPT に代表 … 続きを読む

カテゴリー: cs.CL | An Empirical Study of Retrieval Augmented Generation with Chain-of-Thought はコメントを受け付けていません

Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection

要約 フェイクニュースの蔓延は個人に悪影響を及ぼし、対処すべき重大な社会課題とみ … 続きを読む

カテゴリー: cs.AI, cs.CL | Adversarial Style Augmentation via Large Language Model for Robust Fake News Detection はコメントを受け付けていません