cs.CL」カテゴリーアーカイブ

Minerva: A Programmable Memory Test Benchmark for Language Models

要約 LLMベースのAIアシスタントは、メモリ(コンテキスト)をどの程度効果的に … 続きを読む

カテゴリー: cs.CL | Minerva: A Programmable Memory Test Benchmark for Language Models はコメントを受け付けていません

WeQA: A Benchmark for Retrieval Augmented Generation in Wind Energy Domain

要約 Wind Energy Project Assessmentは、意思決定者 … 続きを読む

カテゴリー: cs.CL | WeQA: A Benchmark for Retrieval Augmented Generation in Wind Energy Domain はコメントを受け付けていません

ConECT Dataset: Overcoming Data Scarcity in Context-Aware E-Commerce MT

要約 ニューラルマシン翻訳(NMT)は、変圧器ベースのモデルを使用することで翻訳 … 続きを読む

カテゴリー: cs.CL | ConECT Dataset: Overcoming Data Scarcity in Context-Aware E-Commerce MT はコメントを受け付けていません

WebUIBench: A Comprehensive Benchmark for Evaluating Multimodal Large Language Models in WebUI-to-Code

要約 生成AIテクノロジーの急速な進歩により、マルチモーダルラージランゲージモデ … 続きを読む

カテゴリー: cs.CL | WebUIBench: A Comprehensive Benchmark for Evaluating Multimodal Large Language Models in WebUI-to-Code はコメントを受け付けていません

Improving large language models with concept-aware fine-tuning

要約 大規模な言語モデル(LLM)は、現代AIの基礎となっています。 ただし、次 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Improving large language models with concept-aware fine-tuning はコメントを受け付けていません

Beyond Numeric Rewards: In-Context Dueling Bandits with LLM Agents

要約 コンテキスト内補強学習(ICRL)は、基礎モデルの時代の強化学習(RL)の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Beyond Numeric Rewards: In-Context Dueling Bandits with LLM Agents はコメントを受け付けていません

Learning to Focus: Causal Attention Distillation via Gradient-Guided Token Pruning

要約 大規模な言語モデル(LLM)は、コンテキストの理解に大幅な改善を実証してい … 続きを読む

カテゴリー: cs.CL | Learning to Focus: Causal Attention Distillation via Gradient-Guided Token Pruning はコメントを受け付けていません

Introspective Growth: Automatically Advancing LLM Expertise in Technology Judgment

要約 大規模な言語モデル(LLM)は、概念的な理解の兆候をますます示していますが … 続きを読む

カテゴリー: cs.CL, cs.CY, cs.DL, cs.IR | Introspective Growth: Automatically Advancing LLM Expertise in Technology Judgment はコメントを受け付けていません

MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed Retention for LLMs

要約 実際のシステムに展開された言語モデルは、多くの場合、新しい知識または修正さ … 続きを読む

カテゴリー: cs.CL, cs.LG | MEMOIR: Lifelong Model Editing with Minimal Overwrite and Informed Retention for LLMs はコメントを受け付けていません

Dynamic-SUPERB Phase-2: A Collaboratively Expanding Benchmark for Measuring the Capabilities of Spoken Language Models with 180 Tasks

要約 GeminiやChatGptなどのマルチモーダルファンデーションモデルは、 … 続きを読む

カテゴリー: cs.CL, eess.AS | Dynamic-SUPERB Phase-2: A Collaboratively Expanding Benchmark for Measuring the Capabilities of Spoken Language Models with 180 Tasks はコメントを受け付けていません