cs.CL」カテゴリーアーカイブ

Investigating Length Issues in Document-level Machine Translation

要約 トランスアーキテクチャは、非常に長いテキストの処理と生成にますます効果的に … 続きを読む

カテゴリー: cs.CL | Investigating Length Issues in Document-level Machine Translation はコメントを受け付けていません

Can a Crow Hatch a Falcon? Lineage Matters in Predicting Large Language Model Performance

要約 大規模な微調整またはマージの前に、大規模な言語モデル(LLM)のパフォーマ … 続きを読む

カテゴリー: cs.CL | Can a Crow Hatch a Falcon? Lineage Matters in Predicting Large Language Model Performance はコメントを受け付けていません

GraphEx: A Graph-based Extraction Method for Advertiser Keyphrase Recommendation

要約 オンライン販売者と広告主は、リストされた製品のキーフレーズを推奨しており、 … 続きを読む

カテゴリー: cs.CL, cs.IR, cs.LG | GraphEx: A Graph-based Extraction Method for Advertiser Keyphrase Recommendation はコメントを受け付けていません

To MT or not to MT: An eye-tracking study on the reception by Dutch readers of different translation and creativity levels

要約 この記事では、4つの条件の下で英語からオランダ語に翻訳された架空の短編小説 … 続きを読む

カテゴリー: cs.CL | To MT or not to MT: An eye-tracking study on the reception by Dutch readers of different translation and creativity levels はコメントを受け付けていません

Efficient Domain-adaptive Continual Pretraining for the Process Industry in the German Language

要約 ドメイン適応継続事前トレーニング(DAPT)は、例えば言語マスキングなどの … 続きを読む

カテゴリー: cs.CL | Efficient Domain-adaptive Continual Pretraining for the Process Industry in the German Language はコメントを受け付けていません

semi-PD: Towards Efficient LLM Serving via Phase-Wise Disaggregated Computation and Unified Storage

要約 既存の大規模な言語モデル(LLM)サービングシステムは、2つのカテゴリに分 … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | semi-PD: Towards Efficient LLM Serving via Phase-Wise Disaggregated Computation and Unified Storage はコメントを受け付けていません

GenCLS++: Pushing the Boundaries of Generative Classification in LLMs Through Comprehensive SFT and RL Studies Across Diverse Datasets

要約 機械学習の基本的なタスクとして、テキスト分類は多くの分野で重要な役割を果た … 続きを読む

カテゴリー: cs.CL | GenCLS++: Pushing the Boundaries of Generative Classification in LLMs Through Comprehensive SFT and RL Studies Across Diverse Datasets はコメントを受け付けていません

Knowledge Distillation of Domain-adapted LLMs for Question-Answering in Telecom

要約 知識蒸留(KD)は、大規模な言語モデル(LLM)のサイズを縮小するアプロー … 続きを読む

カテゴリー: 68T50, cs.CL, cs.IR, cs.LG, I.2.7 | Knowledge Distillation of Domain-adapted LLMs for Question-Answering in Telecom はコメントを受け付けていません

Pula: Training Large Language Models for Setswana

要約 この作業では、セツワナと英語の両方に熟練したバイリンガル言語モデルのスイー … 続きを読む

カテゴリー: cs.CL | Pula: Training Large Language Models for Setswana はコメントを受け付けていません

LLM-Generated Fake News Induces Truth Decay in News Ecosystem: A Case Study on Neural News Recommendation

要約 オンラインの偽のニュースモデレートは、偽のニュース制作における大規模な言語 … 続きを読む

カテゴリー: cs.CL, cs.CY, cs.IR | LLM-Generated Fake News Induces Truth Decay in News Ecosystem: A Case Study on Neural News Recommendation はコメントを受け付けていません