cs.CL」カテゴリーアーカイブ

Multifractal hopscotch in ‘Hopscotch’ by Julio Cortazar

要約 句読点は、自然言語で書かれたテキストに相関関係をもたらす主な要因であり、テ … 続きを読む

カテゴリー: cs.CL | Multifractal hopscotch in ‘Hopscotch’ by Julio Cortazar はコメントを受け付けていません

Efficient Prompt Compression with Evaluator Heads for Long-Context Transformer Inference

要約 長いコンテキストの入力を伴うアプリケーションは、大規模言語モデル (LLM … 続きを読む

カテゴリー: cs.CL | Efficient Prompt Compression with Evaluator Heads for Long-Context Transformer Inference はコメントを受け付けていません

OnionEval: An Unified Evaluation of Fact-conflicting Hallucination for Small-Large Language Models

要約 大規模言語モデル (LLM) は高度な機能を備えていますが、トレーニングと … 続きを読む

カテゴリー: cs.CL | OnionEval: An Unified Evaluation of Fact-conflicting Hallucination for Small-Large Language Models はコメントを受け付けていません

Implicit Causality-biases in humans and LLMs as a tool for benchmarking LLM discourse capabilities

要約 この論文では、さまざまなモデルサイズにわたる単言語および多言語 LLM で … 続きを読む

カテゴリー: cs.CL | Implicit Causality-biases in humans and LLMs as a tool for benchmarking LLM discourse capabilities はコメントを受け付けていません

Pairwise RM: Perform Best-of-N Sampling with Knockout Tournament

要約 大規模言語モデル (LLM) のテスト時間スケーリングの一般的な戦略である … 続きを読む

カテゴリー: cs.CL | Pairwise RM: Perform Best-of-N Sampling with Knockout Tournament はコメントを受け付けていません

Does Table Source Matter? Benchmarking and Improving Multimodal Scientific Table Understanding and Reasoning

要約 最近の大規模言語モデル (LLM) は高度なテーブル理解機能を備えています … 続きを読む

カテゴリー: cs.CL | Does Table Source Matter? Benchmarking and Improving Multimodal Scientific Table Understanding and Reasoning はコメントを受け付けていません

Refining Input Guardrails: Enhancing LLM-as-a-Judge Efficiency Through Chain-of-Thought Fine-Tuning and Alignment

要約 大規模言語モデル (LLM) は、会話型 AI 製品などのさまざまなアプリ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Refining Input Guardrails: Enhancing LLM-as-a-Judge Efficiency Through Chain-of-Thought Fine-Tuning and Alignment はコメントを受け付けていません

A Rate-Distortion Framework for Summarization

要約 この論文では、テキスト要約のための情報理論フレームワークを紹介します。 サ … 続きを読む

カテゴリー: cs.CL, cs.IT, cs.LG, math.IT | A Rate-Distortion Framework for Summarization はコメントを受け付けていません

Open or Closed LLM for Lesser-Resourced Languages? Lessons from Greek

要約 リソースの少ない言語の自然言語処理 (NLP) は、データセットの制限、リ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Open or Closed LLM for Lesser-Resourced Languages? Lessons from Greek はコメントを受け付けていません

Architectural Fusion Through Contextual Partitioning in Large Language Models: A Novel Approach to Parameterized Knowledge Integration

要約 コンテキスト パーティショニングは、パラメータをコンテキスト認識領域に動的 … 続きを読む

カテゴリー: cs.AI, cs.CL | Architectural Fusion Through Contextual Partitioning in Large Language Models: A Novel Approach to Parameterized Knowledge Integration はコメントを受け付けていません