cs.CL」カテゴリーアーカイブ

TALES: Text Adventure Learning Environment Suite

要約 推論は、大規模な言語モデル(LLM)が世界と対話できるようにするための不可 … 続きを読む

カテゴリー: cs.AI, cs.CL | TALES: Text Adventure Learning Environment Suite はコメントを受け付けていません

MedMax: Mixed-Modal Instruction Tuning for Training Biomedical Assistants

要約 混合モーダル生成の最近の進歩により、生物医学画像を分析し、それらに関する複 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV | MedMax: Mixed-Modal Instruction Tuning for Training Biomedical Assistants はコメントを受け付けていません

ITERTL: An Iterative Framework for Fine-tuning LLMs for RTL Code Generation

要約 最近、大規模な言語モデル(LLMS)は優れたパフォーマンスを実証し、研究者 … 続きを読む

カテゴリー: cs.AI, cs.CL | ITERTL: An Iterative Framework for Fine-tuning LLMs for RTL Code Generation はコメントを受け付けていません

EAGLE-3: Scaling up Inference Acceleration of Large Language Models via Training-Time Test

要約 最新のLLMの順次性質により、それらは高価で遅くなり、投機的なサンプリング … 続きを読む

カテゴリー: cs.CL | EAGLE-3: Scaling up Inference Acceleration of Large Language Models via Training-Time Test はコメントを受け付けていません

Large Language Models for Automated Literature Review: An Evaluation of Reference Generation, Abstract Writing, and Review Composition

要約 大規模な言語モデル(LLM)は、文献収集、組織、要約などの文献レビューを書 … 続きを読む

カテゴリー: cs.AI, cs.CL | Large Language Models for Automated Literature Review: An Evaluation of Reference Generation, Abstract Writing, and Review Composition はコメントを受け付けていません

T-VEC: A Telecom-Specific Vectorization Model with Enhanced Semantic Understanding via Deep Triplet Loss Fine-Tuning

要約 電気通信業界の専門的な語彙と複雑な概念は、標準的な自然言語処理モデルに大き … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL | T-VEC: A Telecom-Specific Vectorization Model with Enhanced Semantic Understanding via Deep Triplet Loss Fine-Tuning はコメントを受け付けていません

Needle Threading: Can LLMs Follow Threads through Near-Million-Scale Haystacks?

要約 大規模な言語モデル(LLM)のコンテキスト制限が増加すると、可能なアプリケ … 続きを読む

カテゴリー: cs.CL | Needle Threading: Can LLMs Follow Threads through Near-Million-Scale Haystacks? はコメントを受け付けていません

TCAN: Text-oriented Cross Attention Network for Multimodal Sentiment Analysis

要約 マルチモーダル感情分析(MSA)は、言語、視覚、音響のモダリティを活用する … 続きを読む

カテゴリー: cs.CL, cs.MM | TCAN: Text-oriented Cross Attention Network for Multimodal Sentiment Analysis はコメントを受け付けていません

Accelerate Parallelizable Reasoning via Parallel Decoding within One Sequence

要約 推論モデルの最近の進歩は、特に詳細かつ包括的な推論プロセスを採用することに … 続きを読む

カテゴリー: cs.CL | Accelerate Parallelizable Reasoning via Parallel Decoding within One Sequence はコメントを受け付けていません

QuaDMix: Quality-Diversity Balanced Data Selection for Efficient LLM Pretraining

要約 品質と多様性は、大規模な言語モデル(LLM)のトレーニングデータの2つの重 … 続きを読む

カテゴリー: cs.CL | QuaDMix: Quality-Diversity Balanced Data Selection for Efficient LLM Pretraining はコメントを受け付けていません