cs.CL」カテゴリーアーカイブ

Joint Fine-tuning and Conversion of Pretrained Speech and Language Models towards Linear Complexity

要約 最近、Linformer や Mamba などのアーキテクチャが、トランス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SD, eess.AS | Joint Fine-tuning and Conversion of Pretrained Speech and Language Models towards Linear Complexity はコメントを受け付けていません

CityBench: Evaluating the Capabilities of Large Language Models for Urban Tasks

要約 最近、広範な一般知識と強力な推論能力を備えた大規模言語モデル (LLM) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | CityBench: Evaluating the Capabilities of Large Language Models for Urban Tasks はコメントを受け付けていません

LiveIdeaBench: Evaluating LLMs’ Scientific Creativity and Idea Generation with Minimal Context

要約 大規模言語モデル (LLM) は科学的タスクにおいて顕著な能力を実証してき … 続きを読む

カテゴリー: cs.AI, cs.CL | LiveIdeaBench: Evaluating LLMs’ Scientific Creativity and Idea Generation with Minimal Context はコメントを受け付けていません

FocusLLM: Precise Understanding of Long Context by Dynamic Condensing

要約 LLM に長いコンテキストを正確に理解できるようにすることは、多くの下流ア … 続きを読む

カテゴリー: cs.AI, cs.CL | FocusLLM: Precise Understanding of Long Context by Dynamic Condensing はコメントを受け付けていません

Chumor 2.0: Towards Benchmarking Chinese Humor Understanding

要約 既存のユーモアのデータセットと評価は主に英語に焦点を当てており、中国語など … 続きを読む

カテゴリー: cs.AI, cs.CL | Chumor 2.0: Towards Benchmarking Chinese Humor Understanding はコメントを受け付けていません

DART-Math: Difficulty-Aware Rejection Tuning for Mathematical Problem-Solving

要約 数学的問題を解決するには高度な推論能力が必要であり、大規模な言語モデルには … 続きを読む

カテゴリー: cs.AI, cs.CL | DART-Math: Difficulty-Aware Rejection Tuning for Mathematical Problem-Solving はコメントを受け付けていません

Fourier Position Embedding: Enhancing Attention’s Periodic Extension for Length Generalization

要約 Rotary Position Embedding (RoPE) を改善す … 続きを読む

カテゴリー: cs.AI, cs.CL | Fourier Position Embedding: Enhancing Attention’s Periodic Extension for Length Generalization はコメントを受け付けていません

RepoTransBench: A Real-World Benchmark for Repository-Level Code Translation

要約 リポジトリ レベルのコード変換とは、ソース リポジトリの機能を維持しながら … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SE | RepoTransBench: A Real-World Benchmark for Repository-Level Code Translation はコメントを受け付けていません

Quantifying Positional Biases in Text Embedding Models

要約 埋め込みモデルは、情報検索 (IR) や意味的類似性の測定のタスクにとって … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | Quantifying Positional Biases in Text Embedding Models はコメントを受け付けていません

Deliberation in Latent Space via Differentiable Cache Augmentation

要約 中間の推論ステップを生成して処理することで大規模言語モデル (LLM) が … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Deliberation in Latent Space via Differentiable Cache Augmentation はコメントを受け付けていません