cs.CL」カテゴリーアーカイブ

A Lightweight Method to Disrupt Memorized Sequences in LLM

要約 言語モデルが拡大するにつれて、パフォーマンスは幅広いタスク全体で劇的に向上 … 続きを読む

カテゴリー: cs.CL, cs.LG | A Lightweight Method to Disrupt Memorized Sequences in LLM はコメントを受け付けていません

Agentic Medical Knowledge Graphs Enhance Medical Question Answering: Bridging the Gap Between LLMs and Evolving Medical Knowledge

要約 大規模な言語モデル(LLM)は、広範な臨床データと医学文献を活用することに … 続きを読む

カテゴリー: cs.CL, cs.MA | Agentic Medical Knowledge Graphs Enhance Medical Question Answering: Bridging the Gap Between LLMs and Evolving Medical Knowledge はコメントを受け付けていません

Towards Better Instruction Following Retrieval Models

要約 標準ペアでのみ訓練された最新の情報検索(IR)モデルは、明示的なユーザーの … 続きを読む

カテゴリー: cs.CL, cs.IR | Towards Better Instruction Following Retrieval Models はコメントを受け付けていません

ANCHOLIK-NER: A Benchmark Dataset for Bangla Regional Named Entity Recognition

要約 地域の方言の名前付きエンティティ認識(NER)は、特にバングラのような低リ … 続きを読む

カテゴリー: cs.CL, cs.LG | ANCHOLIK-NER: A Benchmark Dataset for Bangla Regional Named Entity Recognition はコメントを受け付けていません

Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs

要約 大規模な言語モデル(LLMS)は、各デコードステップでの語彙上の確率分布か … 続きを読む

カテゴリー: cs.CL | Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs はコメントを受け付けていません

One-shot Entropy Minimization

要約 13,440の大規模な言語モデルをトレーニングし、エントロピーの最小化には … 続きを読む

カテゴリー: cs.CL | One-shot Entropy Minimization はコメントを受け付けていません

Words Like Knives: Backstory-Personalized Modeling and Detection of Violent Communication

要約 密接な関係にある会話の故障は、個人的な歴史と感情的な文脈によって深く形作ら … 続きを読む

カテゴリー: cs.CL | Words Like Knives: Backstory-Personalized Modeling and Detection of Violent Communication はコメントを受け付けていません

Thinking beyond the anthropomorphic paradigm benefits LLM research

要約 擬人化、または人間の特性のテクノロジーへの帰属は、高度な技術的専門知識を持 … 続きを読む

カテゴリー: cs.CL | Thinking beyond the anthropomorphic paradigm benefits LLM research はコメントを受け付けていません

Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance

要約 大規模な言語モデル(LLMS)は、入力言語や出力言語とは異なる場合がある潜 … 続きを読む

カテゴリー: cs.CL | Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance はコメントを受け付けていません

Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions

要約 メモリは、大規模な言語モデル(LLMS)ベースのエージェントを支えるAIシ … 続きを読む

カテゴリー: cs.CL | Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions はコメントを受け付けていません