-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
A Lightweight Method to Disrupt Memorized Sequences in LLM
要約 言語モデルが拡大するにつれて、パフォーマンスは幅広いタスク全体で劇的に向上 … 続きを読む
Agentic Medical Knowledge Graphs Enhance Medical Question Answering: Bridging the Gap Between LLMs and Evolving Medical Knowledge
要約 大規模な言語モデル(LLM)は、広範な臨床データと医学文献を活用することに … 続きを読む
Towards Better Instruction Following Retrieval Models
要約 標準ペアでのみ訓練された最新の情報検索(IR)モデルは、明示的なユーザーの … 続きを読む
ANCHOLIK-NER: A Benchmark Dataset for Bangla Regional Named Entity Recognition
要約 地域の方言の名前付きエンティティ認識(NER)は、特にバングラのような低リ … 続きを読む
Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs
要約 大規模な言語モデル(LLMS)は、各デコードステップでの語彙上の確率分布か … 続きを読む
カテゴリー: cs.CL
Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs はコメントを受け付けていません
One-shot Entropy Minimization
要約 13,440の大規模な言語モデルをトレーニングし、エントロピーの最小化には … 続きを読む
カテゴリー: cs.CL
One-shot Entropy Minimization はコメントを受け付けていません
Words Like Knives: Backstory-Personalized Modeling and Detection of Violent Communication
要約 密接な関係にある会話の故障は、個人的な歴史と感情的な文脈によって深く形作ら … 続きを読む
カテゴリー: cs.CL
Words Like Knives: Backstory-Personalized Modeling and Detection of Violent Communication はコメントを受け付けていません
Thinking beyond the anthropomorphic paradigm benefits LLM research
要約 擬人化、または人間の特性のテクノロジーへの帰属は、高度な技術的専門知識を持 … 続きを読む
カテゴリー: cs.CL
Thinking beyond the anthropomorphic paradigm benefits LLM research はコメントを受け付けていません
Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance
要約 大規模な言語モデル(LLMS)は、入力言語や出力言語とは異なる場合がある潜 … 続きを読む
カテゴリー: cs.CL
Do LLMs Need to Think in One Language? Correlation between Latent Language and Task Performance はコメントを受け付けていません
Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions
要約 メモリは、大規模な言語モデル(LLMS)ベースのエージェントを支えるAIシ … 続きを読む
カテゴリー: cs.CL
Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions はコメントを受け付けていません