cs.CL」カテゴリーアーカイブ

Turning English-centric LLMs Into Polyglots: How Much Multilinguality Is Needed?

要約 今日の大規模言語モデル(LLM)の大部分は英語中心であり、主に英語のテキス … 続きを読む

カテゴリー: cs.CL | Turning English-centric LLMs Into Polyglots: How Much Multilinguality Is Needed? はコメントを受け付けていません

UncertaintyRAG: Span-Level Uncertainty Enhanced Long-Context Modeling for Retrieval-Augmented Generation

要約 我々は、テキストチャンク間の類似性を推定するために、信号対雑音比(SNR) … 続きを読む

カテゴリー: cs.CL | UncertaintyRAG: Span-Level Uncertainty Enhanced Long-Context Modeling for Retrieval-Augmented Generation はコメントを受け付けていません

Grounding Large Language Models In Embodied Environment With Imperfect World Models

要約 様々なアプリケーションで広く成功を収めているにもかかわらず、大規模言語モデ … 続きを読む

カテゴリー: cs.CL, cs.LG, cs.RO | Grounding Large Language Models In Embodied Environment With Imperfect World Models はコメントを受け付けていません

MA-RLHF: Reinforcement Learning from Human Feedback with Macro Actions

要約 人間のフィードバックからの強化学習(RLHF)は、大規模言語モデル(LLM … 続きを読む

カテゴリー: cs.CL | MA-RLHF: Reinforcement Learning from Human Feedback with Macro Actions はコメントを受け付けていません

PharmacyGPT: The AI Pharmacist

要約 本研究では、臨床薬剤師の役割をエミュレートするためのChatGPTやGPT … 続きを読む

カテゴリー: cs.CL | PharmacyGPT: The AI Pharmacist はコメントを受け付けていません

On Training Data Influence of GPT Models

要約 生成言語モデルの急速な進歩の中で、学習データがGPTモデルの性能をどのよう … 続きを読む

カテゴリー: cs.CL, cs.LG | On Training Data Influence of GPT Models はコメントを受け付けていません

Tokenization Falling Short: The Curse of Tokenization

要約 言語モデルは通常、生テキストを事前に定義された語彙からサブワード識別子のシ … 続きを読む

カテゴリー: cs.CL | Tokenization Falling Short: The Curse of Tokenization はコメントを受け付けていません

Training Language Models on Synthetic Edit Sequences Improves Code Synthesis

要約 ソフトウェア・エンジニアは、主に既存のプログラムを編集してコードを書く。対 … 続きを読む

カテゴリー: cs.CL, cs.LG | Training Language Models on Synthetic Edit Sequences Improves Code Synthesis はコメントを受け付けていません

SIEVE: General Purpose Data Filtering System Matching GPT-4o Accuracy at 1% the Cost

要約 特化した大規模言語モデルを作成するには、学習と微調整のために膨大な量のクリ … 続きを読む

カテゴリー: cs.CL, cs.LG | SIEVE: General Purpose Data Filtering System Matching GPT-4o Accuracy at 1% the Cost はコメントを受け付けていません

CorPipe at CRAC 2024: Predicting Zero Mentions from Raw Text

要約 CRAC 2024多言語共参照解決共有タスクの優勝作品であるCorPipe … 続きを読む

カテゴリー: cs.CL | CorPipe at CRAC 2024: Predicting Zero Mentions from Raw Text はコメントを受け付けていません