月別アーカイブ: 2025年4月

MAQA: Evaluating Uncertainty Quantification in LLMs Regarding Data Uncertainty

要約 大規模な言語モデル(LLM)の大規模な進歩にもかかわらず、彼らは依然として … 続きを読む

カテゴリー: cs.AI, cs.CL | MAQA: Evaluating Uncertainty Quantification in LLMs Regarding Data Uncertainty はコメントを受け付けていません

Artificial Conversations, Real Results: Fostering Language Detection with Synthetic Data

要約 高品質のトレーニングデータを収集することは、大規模な言語モデル(LLMS) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Artificial Conversations, Real Results: Fostering Language Detection with Synthetic Data はコメントを受け付けていません

Truth or Mirage? Towards End-to-End Factuality Evaluation with LLM-Oasis

要約 大規模な言語モデル(LLMS)の導入後、テキストの要約や機械翻訳など、自然 … 続きを読む

カテゴリー: cs.CL | Truth or Mirage? Towards End-to-End Factuality Evaluation with LLM-Oasis はコメントを受け付けていません

Is LLM the Silver Bullet to Low-Resource Languages Machine Translation?

要約 低リソース言語(LRL)は、限られた言語リソースと標準的なデータセットでの … 続きを読む

カテゴリー: cs.CL | Is LLM the Silver Bullet to Low-Resource Languages Machine Translation? はコメントを受け付けていません

Continuous Speech Tokenizer in Text To Speech

要約 大規模な言語モデルの時代における言語と言語の融合は、大きな注目を集めていま … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Continuous Speech Tokenizer in Text To Speech はコメントを受け付けていません

TeleAntiFraud-28k: A Audio-Text Slow-Thinking Dataset for Telecom Fraud Detection

要約 通信詐欺の検出は、オーディオ信号を推論指向のテキスト分析と統合する高品質の … 続きを読む

カテゴリー: cs.CL, cs.MM | TeleAntiFraud-28k: A Audio-Text Slow-Thinking Dataset for Telecom Fraud Detection はコメントを受け付けていません

Multi-Task Learning for Extracting Menstrual Characteristics from Clinical Notes

要約 月経健康は、女性のヘルスケアの重要なものですが、見落とされがちな側面です。 … 続きを読む

カテゴリー: cs.CL | Multi-Task Learning for Extracting Menstrual Characteristics from Clinical Notes はコメントを受け付けていません

Implicit In-Context Learning: Evidence from Artificial Language Experiments

要約 人間は暗黙の学習を通じて言語を獲得し、明示的な認識なしに複雑なパターンを吸 … 続きを読む

カテゴリー: cs.CL | Implicit In-Context Learning: Evidence from Artificial Language Experiments はコメントを受け付けていません

Cascade Reward Sampling for Efficient Decoding-Time Alignment

要約 大規模な言語モデル(LLMS)を人間の好みに合わせて、アプリケーションには … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | Cascade Reward Sampling for Efficient Decoding-Time Alignment はコメントを受け付けていません

TwT: Thinking without Tokens by Habitual Reasoning Distillation with Multi-Teachers’ Guidance

要約 大規模な言語モデル(LLM)は、推論プロセスを組み込むことにより、問題解決 … 続きを読む

カテゴリー: cs.CL | TwT: Thinking without Tokens by Habitual Reasoning Distillation with Multi-Teachers’ Guidance はコメントを受け付けていません