cs.CL」カテゴリーアーカイブ

BabyLMs for isiXhosa: Data-Efficient Language Modelling in a Low-Resource Context

要約 BabyLM チャレンジでは、サンプル効率の高い言語モデルを開発するよう参 … 続きを読む

カテゴリー: cs.CL | BabyLMs for isiXhosa: Data-Efficient Language Modelling in a Low-Resource Context はコメントを受け付けていません

Progressive Document-level Text Simplification via Large Language Models

要約 テキストの簡略化に関する研究は、主に語彙および文レベルの変更に焦点を当てて … 続きを読む

カテゴリー: cs.CL | Progressive Document-level Text Simplification via Large Language Models はコメントを受け付けていません

Improving Dialectal Slot and Intent Detection with Auxiliary Tasks: A Multi-Dialectal Bavarian Case Study

要約 信頼性の高いスロットおよびインテント検出 (SID) は、デジタル アシス … 続きを読む

カテゴリー: cs.CL | Improving Dialectal Slot and Intent Detection with Auxiliary Tasks: A Multi-Dialectal Bavarian Case Study はコメントを受け付けていません

The Faetar Benchmark: Speech Recognition in a Very Under-Resourced Language

要約 Faetar 自動音声認識ベンチマークを紹介します。これは、低リソースの音 … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | The Faetar Benchmark: Speech Recognition in a Very Under-Resourced Language はコメントを受け付けていません

Add Noise, Tasks, or Layers? MaiNLP at the VarDial 2025 Shared Task on Norwegian Dialectal Slot and Intent Detection

要約 スロットおよびインテント検出 (SID) は、古典的な自然言語理解タスクで … 続きを読む

カテゴリー: cs.CL | Add Noise, Tasks, or Layers? MaiNLP at the VarDial 2025 Shared Task on Norwegian Dialectal Slot and Intent Detection はコメントを受け付けていません

AlphaPO — Reward shape matters for LLM alignment

要約 ヒューマン フィードバックによる強化学習 (RLHF) とその亜種は、大規 … 続きを読む

カテゴリー: cs.CL | AlphaPO — Reward shape matters for LLM alignment はコメントを受け付けていません

From Newswire to Nexus: Using text-based actor embeddings and transformer networks to forecast conflict dynamics

要約 この研究は、テキストベースのアクター埋め込みとトランスフォーマー モデルを … 続きを読む

カテゴリー: 68, cs.CL, cs.CY, cs.LG, I.2.7 | From Newswire to Nexus: Using text-based actor embeddings and transformer networks to forecast conflict dynamics はコメントを受け付けていません

Information Extraction from Clinical Notes: Are We Ready to Switch to Large Language Models?

要約 背景: 情報抽出 (IE) は臨床自然言語処理 (NLP) において重要で … 続きを読む

カテゴリー: cs.CL | Information Extraction from Clinical Notes: Are We Ready to Switch to Large Language Models? はコメントを受け付けていません

Semantically Cohesive Word Grouping in Indian Languages

要約 インドの言語は屈折と膠着が多く、通常は節のない語順に従います。 依存関係解 … 続きを読む

カテゴリー: cs.CL | Semantically Cohesive Word Grouping in Indian Languages はコメントを受け付けていません

Influences on LLM Calibration: A Study of Response Agreement, Loss Functions, and Prompt Styles

要約 モデルの信頼性と予測精度の間の調整であるキャリブレーションは、大規模言語モ … 続きを読む

カテゴリー: cs.CL | Influences on LLM Calibration: A Study of Response Agreement, Loss Functions, and Prompt Styles はコメントを受け付けていません