月別アーカイブ: 2025年4月

LiveLongBench: Tackling Long-Context Understanding for Spoken Texts from Live Streams

要約 長いコンテキストの理解は、特に音声ベースの要素、高い冗長性、および不均一な … 続きを読む

カテゴリー: cs.AI, cs.CL | LiveLongBench: Tackling Long-Context Understanding for Spoken Texts from Live Streams はコメントを受け付けていません

OPT-Tree: Speculative Decoding with Adaptive Draft Tree Structure

要約 オートレーフレフな言語モデルは、さまざまなシナリオで優れたパフォーマンスを … 続きを読む

カテゴリー: cs.CL | OPT-Tree: Speculative Decoding with Adaptive Draft Tree Structure はコメントを受け付けていません

PicPersona-TOD : A Dataset for Personalizing Utterance Style in Task-Oriented Dialogue with Image Persona

要約 タスク指向のダイアログ(TOD)システムは、自然言語の相互作用を通じてユー … 続きを読む

カテゴリー: cs.CL | PicPersona-TOD : A Dataset for Personalizing Utterance Style in Task-Oriented Dialogue with Image Persona はコメントを受け付けていません

Can LLMs Really Learn to Translate a Low-Resource Language from One Grammar Book?

要約 非常に低リソース(XLR)言語には、NLPモデルのトレーニングにはかなりの … 続きを読む

カテゴリー: cs.CL | Can LLMs Really Learn to Translate a Low-Resource Language from One Grammar Book? はコメントを受け付けていません

Creating Targeted, Interpretable Topic Models with LLM-Generated Text Augmentation

要約 トピックモデリングやクラスタリングなどの監視されていない機械学習手法は、政 … 続きを読む

カテゴリー: cs.CL | Creating Targeted, Interpretable Topic Models with LLM-Generated Text Augmentation はコメントを受け付けていません

Unified Attacks to Large Language Model Watermarks: Spoofing and Scrubbing in Unauthorized Knowledge Distillation

要約 透かしは、大規模な言語モデル(LLM)で誤った情報と闘い、知的財産を保護す … 続きを読む

カテゴリー: cs.CL | Unified Attacks to Large Language Model Watermarks: Spoofing and Scrubbing in Unauthorized Knowledge Distillation はコメントを受け付けていません

Transferable text data distillation by trajectory matching

要約 大規模な言語モデル(LLM)の領域では、大規模なモデルのサイズが大きくなる … 続きを読む

カテゴリー: cs.CL | Transferable text data distillation by trajectory matching はコメントを受け付けていません

Probabilistic Subspace Manifolds for Contextual Inference in Large Language Models

要約 トークンの埋め込みを学習した多様体にわたって確率分布として表すことで、より … 続きを読む

カテゴリー: cs.CL | Probabilistic Subspace Manifolds for Contextual Inference in Large Language Models はコメントを受け付けていません

Not All Data Are Unlearned Equally

要約 Machine Ulearningは、訓練されたモデルから特定のデータポイ … 続きを読む

カテゴリー: cs.CL | Not All Data Are Unlearned Equally はコメントを受け付けていません

When Does Metadata Conditioning (NOT) Work for Language Model Pre-Training? A Study with Context-Free Grammars

要約 潜在的なセマンティクスを獲得する機能は、言語モデルのパフォーマンスを決定す … 続きを読む

カテゴリー: cs.CL, cs.LG | When Does Metadata Conditioning (NOT) Work for Language Model Pre-Training? A Study with Context-Free Grammars はコメントを受け付けていません