cs.CL」カテゴリーアーカイブ

Analyzing 16,193 LLM Papers for Fun and Profits

要約 大規模な言語モデル(LLM)は、コンピューターサイエンスの研究の景観を再構 … 続きを読む

カテゴリー: cs.CL, cs.DL | Analyzing 16,193 LLM Papers for Fun and Profits はコメントを受け付けていません

Localizing and Mitigating Errors in Long-form Question Answering

要約 長型の質問応答(LFQA)は、複雑な質問に対する徹底的かつ詳細な回答を提供 … 続きを読む

カテゴリー: cs.CL | Localizing and Mitigating Errors in Long-form Question Answering はコメントを受け付けていません

TP-RAG: Benchmarking Retrieval-Augmented Large Language Model Agents for Spatiotemporal-Aware Travel Planning

要約 大規模な言語モデル(LLM)は、旅行計画の自動化に有望を示していますが、微 … 続きを読む

カテゴリー: cs.CL | TP-RAG: Benchmarking Retrieval-Augmented Large Language Model Agents for Spatiotemporal-Aware Travel Planning はコメントを受け付けていません

Not All Data Are Unlearned Equally

要約 Machine Ulearningは、訓練されたモデルから特定のデータポイ … 続きを読む

カテゴリー: cs.CL | Not All Data Are Unlearned Equally はコメントを受け付けていません

Large Language Models as Span Annotators

要約 高品質のテキストの場合、シングルスコアメトリックは、実用的なフィードバック … 続きを読む

カテゴリー: cs.CL | Large Language Models as Span Annotators はコメントを受け付けていません

ModernBERT or DeBERTaV3? Examining Architecture and Data Influence on Transformer Encoder Models Performance

要約 Debertav3やModernbertなどの事前に保護された変圧器エンコ … 続きを読む

カテゴリー: cs.CL | ModernBERT or DeBERTaV3? Examining Architecture and Data Influence on Transformer Encoder Models Performance はコメントを受け付けていません

SWAN-GPT: An Efficient and Scalable Approach for Long-Context Language Modeling

要約 トレーニング中に見られるものよりも大幅に長いシーケンスの長さに堅牢に一般化 … 続きを読む

カテゴリー: cs.CL | SWAN-GPT: An Efficient and Scalable Approach for Long-Context Language Modeling はコメントを受け付けていません

Task Memory Engine (TME): Enhancing State Awareness for Multi-Step LLM Agent Tasks

要約 大規模な言語モデル(LLM)は、マルチステップタスクの自律エージェントとし … 続きを読む

カテゴリー: 68T05, cs.AI, cs.CL, H.3.3 | Task Memory Engine (TME): Enhancing State Awareness for Multi-Step LLM Agent Tasks はコメントを受け付けていません

DSBench: How Far Are Data Science Agents from Becoming Data Science Experts?

要約 大規模な言語モデル(LLMS)および大規模なビジョン言語モデル(LVLMS … 続きを読む

カテゴリー: cs.AI, cs.CL | DSBench: How Far Are Data Science Agents from Becoming Data Science Experts? はコメントを受け付けていません

Meta-RTL: Reinforcement-Based Meta-Transfer Learning for Low-Resource Commonsense Reasoning

要約 Meta Learningは、低リソースのターゲットタスクのパフォーマンス … 続きを読む

カテゴリー: cs.AI, cs.CL | Meta-RTL: Reinforcement-Based Meta-Transfer Learning for Low-Resource Commonsense Reasoning はコメントを受け付けていません