-
最近の投稿
- FEAST: A Flexible Mealtime-Assistance System Towards In-the-Wild Personalization
- Time-Optimized Safe Navigation in Unstructured Environments through Learning Based Depth Completion
- Advances in Compliance Detection: Novel Models Using Vision-Based Tactile Sensors
- Mass-Adaptive Admittance Control for Robotic Manipulators
- DreamGen: Unlocking Generalization in Robot Learning through Video World Models
-
最近のコメント
表示できるコメントはありません。 cs.AI (39879) cs.CL (30187) cs.CV (45175) cs.HC (3051) cs.LG (44808) cs.RO (23879) cs.SY (3632) eess.IV (5170) eess.SY (3624) stat.ML (5830)
「cs.CL」カテゴリーアーカイブ
TALES: Text Adventure Learning Environment Suite
要約 推論は、大規模な言語モデル(LLM)が世界と対話できるようにするための不可 … 続きを読む
MedMax: Mixed-Modal Instruction Tuning for Training Biomedical Assistants
要約 混合モーダル生成の最近の進歩により、生物医学画像を分析し、それらに関する複 … 続きを読む
ITERTL: An Iterative Framework for Fine-tuning LLMs for RTL Code Generation
要約 最近、大規模な言語モデル(LLMS)は優れたパフォーマンスを実証し、研究者 … 続きを読む
EAGLE-3: Scaling up Inference Acceleration of Large Language Models via Training-Time Test
要約 最新のLLMの順次性質により、それらは高価で遅くなり、投機的なサンプリング … 続きを読む
カテゴリー: cs.CL
EAGLE-3: Scaling up Inference Acceleration of Large Language Models via Training-Time Test はコメントを受け付けていません
Large Language Models for Automated Literature Review: An Evaluation of Reference Generation, Abstract Writing, and Review Composition
要約 大規模な言語モデル(LLM)は、文献収集、組織、要約などの文献レビューを書 … 続きを読む
T-VEC: A Telecom-Specific Vectorization Model with Enhanced Semantic Understanding via Deep Triplet Loss Fine-Tuning
要約 電気通信業界の専門的な語彙と複雑な概念は、標準的な自然言語処理モデルに大き … 続きを読む
Needle Threading: Can LLMs Follow Threads through Near-Million-Scale Haystacks?
要約 大規模な言語モデル(LLM)のコンテキスト制限が増加すると、可能なアプリケ … 続きを読む
カテゴリー: cs.CL
Needle Threading: Can LLMs Follow Threads through Near-Million-Scale Haystacks? はコメントを受け付けていません
TCAN: Text-oriented Cross Attention Network for Multimodal Sentiment Analysis
要約 マルチモーダル感情分析(MSA)は、言語、視覚、音響のモダリティを活用する … 続きを読む
Accelerate Parallelizable Reasoning via Parallel Decoding within One Sequence
要約 推論モデルの最近の進歩は、特に詳細かつ包括的な推論プロセスを採用することに … 続きを読む
カテゴリー: cs.CL
Accelerate Parallelizable Reasoning via Parallel Decoding within One Sequence はコメントを受け付けていません
QuaDMix: Quality-Diversity Balanced Data Selection for Efficient LLM Pretraining
要約 品質と多様性は、大規模な言語モデル(LLM)のトレーニングデータの2つの重 … 続きを読む
カテゴリー: cs.CL
QuaDMix: Quality-Diversity Balanced Data Selection for Efficient LLM Pretraining はコメントを受け付けていません