月別アーカイブ: 2024年6月

A Review of Common Online Speaker Diarization Methods

要約 話者ダイアリゼーションは、「誰がいつ話したか?」という質問に対する答えを提 … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | A Review of Common Online Speaker Diarization Methods はコメントを受け付けていません

Data-Centric AI in the Age of Large Language Models

要約 このポジションペーパーでは、大規模言語モデル (LLM) に焦点を当てた、 … 続きを読む

カテゴリー: cs.CL, cs.LG | Data-Centric AI in the Age of Large Language Models はコメントを受け付けていません

Instruction Pre-Training: Language Models are Supervised Multitask Learners

要約 教師なしマルチタスク事前トレーニングは、言語モデル (LM) の最近の成功 … 続きを読む

カテゴリー: cs.CL | Instruction Pre-Training: Language Models are Supervised Multitask Learners はコメントを受け付けていません

CodeRAG-Bench: Can Retrieval Augment Code Generation?

要約 言語モデル (LM) はコード生成に非常に優れていることが証明されています … 続きを読む

カテゴリー: cs.CL, cs.SE | CodeRAG-Bench: Can Retrieval Augment Code Generation? はコメントを受け付けていません

LLaSA: Large Multimodal Agent for Human Activity Analysis Through Wearable Sensors

要約 慣性測定ユニット (IMU) と大規模言語モデル (LLM) を統合するこ … 続きを読む

カテゴリー: cs.CL | LLaSA: Large Multimodal Agent for Human Activity Analysis Through Wearable Sensors はコメントを受け付けていません

Improving Expert Radiology Report Summarization by Prompting Large Language Models with a Layperson Summary

要約 放射線科レポート要約 (RRS) は患者ケアにとって極めて重要であり、詳細 … 続きを読む

カテゴリー: cs.CL | Improving Expert Radiology Report Summarization by Prompting Large Language Models with a Layperson Summary はコメントを受け付けていません

Overview of the CAIL 2023 Argument Mining Track

要約 中国 AI および法律チャレンジ (CAIL) 2023 トラックの 1 … 続きを読む

カテゴリー: cs.CL | Overview of the CAIL 2023 Argument Mining Track はコメントを受け付けていません

Translating Across Cultures: LLMs for Intralingual Cultural Adaptation

要約 LLM は多言語アプリケーションに導入されることが増えており、いくつかの低 … 続きを読む

カテゴリー: cs.CL | Translating Across Cultures: LLMs for Intralingual Cultural Adaptation はコメントを受け付けていません

Investigating Mysteries of CoT-Augmented Distillation

要約 「思考連鎖」(CoT) 理論的根拠 (「推論」プロセスを伝える一連のトーク … 続きを読む

カテゴリー: cs.CL | Investigating Mysteries of CoT-Augmented Distillation はコメントを受け付けていません

RL on Incorrect Synthetic Data Scales the Efficiency of LLM Math Reasoning by Eight-Fold

要約 モデル生成された合成データでのトレーニングは、LLM を微調整するための有 … 続きを読む

カテゴリー: cs.CL, cs.LG | RL on Incorrect Synthetic Data Scales the Efficiency of LLM Math Reasoning by Eight-Fold はコメントを受け付けていません