月別アーカイブ: 2025年2月

Two Heads Are Better Than One: Dual-Model Verbal Reflection at Inference-Time

要約 大規模な言語モデル(LLM)は、多くの場合、複雑な推論シナリオと格闘してい … 続きを読む

カテゴリー: cs.CL | Two Heads Are Better Than One: Dual-Model Verbal Reflection at Inference-Time はコメントを受け付けていません

NeuroVoz: a Castillian Spanish corpus of parkinsonian speech

要約 音声によるパーキンソン病(PD)のスクリーニングは、異なる言語で公開されて … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | NeuroVoz: a Castillian Spanish corpus of parkinsonian speech はコメントを受け付けていません

Between Circuits and Chomsky: Pre-pretraining on Formal Languages Imparts Linguistic Biases

要約 正式な言語の前の言語モデルは、自然言語の獲得を改善できますが、正式な言語の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Between Circuits and Chomsky: Pre-pretraining on Formal Languages Imparts Linguistic Biases はコメントを受け付けていません

Application of Multimodal Large Language Models in Autonomous Driving

要約 技術の進歩のこの時代には、複雑な運転環境での安全性、効率、適応性の向上に焦 … 続きを読む

カテゴリー: cs.CL | Application of Multimodal Large Language Models in Autonomous Driving はコメントを受け付けていません

Disentangled VAD Representations via a Variational Framework for Political Stance Detection

要約 スタンス検出タスクは、指定されたターゲットに関するスタンスを分類することを … 続きを読む

カテゴリー: cs.CL | Disentangled VAD Representations via a Variational Framework for Political Stance Detection はコメントを受け付けていません

CritiQ: Mining Data Quality Criteria from Human Preferences

要約 言語モデルは、最適なパフォーマンスのために高品質のデータに大きく依存します … 続きを読む

カテゴリー: cs.CL | CritiQ: Mining Data Quality Criteria from Human Preferences はコメントを受け付けていません

TAPO: Task-Referenced Adaptation for Prompt Optimization

要約 プロンプトエンジニアリングは、大規模な言語モデル(LLMS)のパフォーマン … 続きを読む

カテゴリー: cs.CL | TAPO: Task-Referenced Adaptation for Prompt Optimization はコメントを受け付けていません

Akan Cinematic Emotions (ACE): A Multimodal Multi-party Dataset for Emotion Recognition in Movie Dialogues

要約 このホワイトペーパーでは、Akan Conversation Emotio … 続きを読む

カテゴリー: cs.CL | Akan Cinematic Emotions (ACE): A Multimodal Multi-party Dataset for Emotion Recognition in Movie Dialogues はコメントを受け付けていません

Evaluating LLMs and Pre-trained Models for Text Summarization Across Diverse Datasets

要約 テキストの要約は、大量のテキストを簡潔で一貫した要約に凝縮することにより、 … 続きを読む

カテゴリー: cs.CL | Evaluating LLMs and Pre-trained Models for Text Summarization Across Diverse Datasets はコメントを受け付けていません

Self-calibration for Language Model Quantization and Pruning

要約 量子化と剪定は、モデル圧縮の基本的なアプローチであり、言語モデルの効率的な … 続きを読む

カテゴリー: cs.CL | Self-calibration for Language Model Quantization and Pruning はコメントを受け付けていません