cs.CL」カテゴリーアーカイブ

How Likely Do LLMs with CoT Mimic Human Reasoning?

要約 思考連鎖は、大規模言語モデル (LLM) から推論機能を引き出すための有望 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | How Likely Do LLMs with CoT Mimic Human Reasoning? はコメントを受け付けていません

Empathy Level Alignment via Reinforcement Learning for Empathetic Response Generation

要約 ユーザーの状況や感情を理解し、共感的に応答することを目的とした共感応答生成 … 続きを読む

カテゴリー: cs.AI, cs.CL | Empathy Level Alignment via Reinforcement Learning for Empathetic Response Generation はコメントを受け付けていません

Make Satire Boring Again: Reducing Stylistic Bias of Satirical Corpus by Utilizing Generative LLMs

要約 風刺の検出は、テキスト データから意見を正確に抽出し、オンラインの誤った情 … 続きを読む

カテゴリー: cs.CL | Make Satire Boring Again: Reducing Stylistic Bias of Satirical Corpus by Utilizing Generative LLMs はコメントを受け付けていません

First Train to Generate, then Generate to Train: UnitedSynT5 for Few-Shot NLI

要約 自然言語推論 (NLI) タスクでは、通常、含意、矛盾、または中立性に分類 … 続きを読む

カテゴリー: cs.AI, cs.CL | First Train to Generate, then Generate to Train: UnitedSynT5 for Few-Shot NLI はコメントを受け付けていません

Towards Understanding the Robustness of LLM-based Evaluations under Perturbations

要約 BLEU や ROUGE などの従来の評価指標は、生成されたテキストの微妙 … 続きを読む

カテゴリー: cs.AI, cs.CL | Towards Understanding the Robustness of LLM-based Evaluations under Perturbations はコメントを受け付けていません

TOP-Training: Target-Oriented Pretraining for Medical Extractive Question Answering

要約 私たちは医療領域における抽出的質問応答(Medical-EQA)を研究して … 続きを読む

カテゴリー: cs.CL | TOP-Training: Target-Oriented Pretraining for Medical Extractive Question Answering はコメントを受け付けていません

Learning to Solve Domain-Specific Calculation Problems with Knowledge-Intensive Programs Generator

要約 ドメイン大規模言語モデル (LLM) は、一般的な LLM に基づいてドメ … 続きを読む

カテゴリー: cs.CL | Learning to Solve Domain-Specific Calculation Problems with Knowledge-Intensive Programs Generator はコメントを受け付けていません

CRVQ: Channel-relaxed Vector Quantization for Extreme Compression of LLMs

要約 強力な大規模言語モデル (LLM) は、より低い計算コストで導入され、リソ … 続きを読む

カテゴリー: cs.CL, cs.LG | CRVQ: Channel-relaxed Vector Quantization for Extreme Compression of LLMs はコメントを受け付けていません

Exploring Language Model Generalization in Low-Resource Extractive QA

要約 この論文では、ドメインドリフトの下で大規模言語モデル (LLM) を使用し … 続きを読む

カテゴリー: cs.CL | Exploring Language Model Generalization in Low-Resource Extractive QA はコメントを受け付けていません

Benchmarking LLMs for Mimicking Child-Caregiver Language in Interaction

要約 LLM は人間のような対話を生成できますが、幼少期の子供と大人の相互作用を … 続きを読む

カテゴリー: cs.AI, cs.CL | Benchmarking LLMs for Mimicking Child-Caregiver Language in Interaction はコメントを受け付けていません