投稿者「jarxiv」のアーカイブ

Towards Better Instruction Following Retrieval Models

要約 標準ペアでのみ訓練された最新の情報検索(IR)モデルは、明示的なユーザーの … 続きを読む

カテゴリー: cs.CL, cs.IR | Towards Better Instruction Following Retrieval Models はコメントを受け付けていません

ANCHOLIK-NER: A Benchmark Dataset for Bangla Regional Named Entity Recognition

要約 地域の方言の名前付きエンティティ認識(NER)は、特にバングラのような低リ … 続きを読む

カテゴリー: cs.CL, cs.LG | ANCHOLIK-NER: A Benchmark Dataset for Bangla Regional Named Entity Recognition はコメントを受け付けていません

Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs

要約 大規模な言語モデル(LLMS)は、各デコードステップでの語彙上の確率分布か … 続きを読む

カテゴリー: cs.CL | Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs はコメントを受け付けていません

One-shot Entropy Minimization

要約 13,440の大規模な言語モデルをトレーニングし、エントロピーの最小化には … 続きを読む

カテゴリー: cs.CL | One-shot Entropy Minimization はコメントを受け付けていません

Words Like Knives: Backstory-Personalized Modeling and Detection of Violent Communication

要約 密接な関係にある会話の故障は、個人的な歴史と感情的な文脈によって深く形作ら … 続きを読む

カテゴリー: cs.CL | Words Like Knives: Backstory-Personalized Modeling and Detection of Violent Communication はコメントを受け付けていません

Thinking beyond the anthropomorphic paradigm benefits LLM research

要約 擬人化、または人間の特性のテクノロジーへの帰属は、高度な技術的専門知識を持 … 続きを読む

カテゴリー: cs.CL | Thinking beyond the anthropomorphic paradigm benefits LLM research はコメントを受け付けていません

Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance

要約 大規模な言語モデル(LLMS)は、入力言語や出力言語とは異なる場合がある潜 … 続きを読む

カテゴリー: cs.CL | Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance はコメントを受け付けていません

Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions

要約 メモリは、大規模な言語モデル(LLMS)ベースのエージェントを支えるAIシ … 続きを読む

カテゴリー: cs.CL | Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions はコメントを受け付けていません

Accelerating Diffusion Language Model Inference via Efficient KV Caching and Guided Diffusion

要約 拡散言語モデルは、並列トークンの生成と固有の双方向性を提供し、自己回帰アプ … 続きを読む

カテゴリー: cs.CL | Accelerating Diffusion Language Model Inference via Efficient KV Caching and Guided Diffusion はコメントを受け付けていません

Beyond ‘Aha!’: Toward Systematic Meta-Abilities Alignment in Large Reasoning Models

要約 大規模な推論モデル(LRMS)は、既に長い考え方の推論のために潜在能力を持 … 続きを読む

カテゴリー: cs.CL | Beyond ‘Aha!’: Toward Systematic Meta-Abilities Alignment in Large Reasoning Models はコメントを受け付けていません