月別アーカイブ: 2023年3月

Generating multiple-choice questions for medical question answering with distractors and cue-masking

要約 医療の多肢選択式質問応答 (MCQA) は特に困難です。 質問は、患者の症 … 続きを読む

カテゴリー: cs.CL, I.2 | Generating multiple-choice questions for medical question answering with distractors and cue-masking はコメントを受け付けていません

EDU-level Extractive Summarization with Varying Summary Lengths

要約 抽出モデルは、通常、ドキュメントから上位 $k$ 固定の顕著な文を要約とし … 続きを読む

カテゴリー: cs.CL | EDU-level Extractive Summarization with Varying Summary Lengths はコメントを受け付けていません

Accidental Learners: Spoken Language Identification in Multilingual Self-Supervised Models

要約 このホワイト ペーパーでは、多言語の事前トレーニング パラダイムで Con … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Accidental Learners: Spoken Language Identification in Multilingual Self-Supervised Models はコメントを受け付けていません

Large Language Models in the Workplace: A Case Study on Prompt Engineering for Job Type Classification

要約 このケース スタディでは、実際の環境での職務分類のタスクを調査します。目標 … 続きを読む

カテゴリー: cs.CL | Large Language Models in the Workplace: A Case Study on Prompt Engineering for Job Type Classification はコメントを受け付けていません

Neural Transducer Training: Reduced Memory Consumption with Sample-wise Computation

要約 ニューラル トランスデューサーは、自動音声認識 (ASR) のエンド ツー … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Neural Transducer Training: Reduced Memory Consumption with Sample-wise Computation はコメントを受け付けていません

A Comprehensive Empirical Evaluation of Existing Word Embedding Approaches

要約 ベクトルベースの単語表現は、無数の自然言語処理 (NLP) タスクが言語の … 続きを読む

カテゴリー: cs.CL, cs.NE | A Comprehensive Empirical Evaluation of Existing Word Embedding Approaches はコメントを受け付けていません

BLOOM: A 176B-Parameter Open-Access Multilingual Language Model

要約 大規模言語モデル (LLM) は、いくつかのデモンストレーションまたは自然 … 続きを読む

カテゴリー: cs.CL | BLOOM: A 176B-Parameter Open-Access Multilingual Language Model はコメントを受け付けていません

Attribution and Obfuscation of Neural Text Authorship: A Data Mining Perspective

要約 プライバシー研究において関心と重要性が高まっている 2 つの相互に関連する … 続きを読む

カテゴリー: cs.CL, cs.LG | Attribution and Obfuscation of Neural Text Authorship: A Data Mining Perspective はコメントを受け付けていません

AdapterSoup: Weight Averaging to Improve Generalization of Pretrained Language Models

要約 事前トレーニング済み言語モデル (PLM) は大規模なコーパスでトレーニン … 続きを読む

カテゴリー: cs.CL | AdapterSoup: Weight Averaging to Improve Generalization of Pretrained Language Models はコメントを受け付けていません

Are Models Trained on Indian Legal Data Fair?

要約 言語技術と人工知能の最近の進歩と応用により、法律、医療、メンタルヘルスなど … 続きを読む

カテゴリー: cs.CL, cs.CY | Are Models Trained on Indian Legal Data Fair? はコメントを受け付けていません