cs.CL」カテゴリーアーカイブ

You Cannot Feed Two Birds with One Score: the Accuracy-Naturalness Tradeoff in Translation

要約 翻訳の目標は、人間であろうと機械によるものであろうと、ソース言語でいくつか … 続きを読む

カテゴリー: cs.CL | You Cannot Feed Two Birds with One Score: the Accuracy-Naturalness Tradeoff in Translation はコメントを受け付けていません

Towards a cognitive architecture to enable natural language interaction in co-constructive task learning

要約 この研究では、認知アーキテクチャが共同建設タスク学習(CCTL)において自 … 続きを読む

カテゴリー: cs.CL, cs.HC, cs.RO | Towards a cognitive architecture to enable natural language interaction in co-constructive task learning はコメントを受け付けていません

Did ChatGPT or Copilot use alter the style of internet news headlines? A time series regression analysis

要約 ChatGptやCopilotなどの高度な大手言語モデル(LLM)のリリー … 続きを読む

カテゴリー: cs.CL, cs.SI | Did ChatGPT or Copilot use alter the style of internet news headlines? A time series regression analysis はコメントを受け付けていません

Expanding RL with Verifiable Rewards Across Diverse Domains

要約 検証可能な報酬(RLVR)を備えた強化学習(RL)は、十分に構築された参照 … 続きを読む

カテゴリー: cs.CL | Expanding RL with Verifiable Rewards Across Diverse Domains はコメントを受け付けていません

SpeechDialogueFactory: Generating High-Quality Speech Dialogue Data to Accelerate Your Speech-LLM Development

要約 高品質の音声ダイアログデータセットは、音声llm開発には重要ですが、既存の … 続きを読む

カテゴリー: cs.CL | SpeechDialogueFactory: Generating High-Quality Speech Dialogue Data to Accelerate Your Speech-LLM Development はコメントを受け付けていません

Better wit than wealth: Dynamic Parametric Retrieval Augmented Generation for Test-time Knowledge Enhancement

要約 検索された生成(RAG)は、外部ソースから関連するドキュメントを取得し、そ … 続きを読む

カテゴリー: cs.AI, cs.CL | Better wit than wealth: Dynamic Parametric Retrieval Augmented Generation for Test-time Knowledge Enhancement はコメントを受け付けていません

Rubrik’s Cube: Testing a New Rubric for Evaluating Explanations on the CUBE dataset

要約 大規模な言語モデル(LLM)のパフォーマンスと使いやすさは、説明生成タスク … 続きを読む

カテゴリー: cs.CL, I.2.7 | Rubrik’s Cube: Testing a New Rubric for Evaluating Explanations on the CUBE dataset はコメントを受け付けていません

Entropy-Based Adaptive Weighting for Self-Training

要約 大規模な言語モデルの数学的な問題解決能力は、これらのモデルを改良および強化 … 続きを読む

カテゴリー: cs.CL | Entropy-Based Adaptive Weighting for Self-Training はコメントを受け付けていません

Model Hemorrhage and the Robustness Limits of Large Language Models

要約 大規模な言語モデル(LLMS)は、自然言語処理タスク全体で強力なパフォーマ … 続きを読む

カテゴリー: cs.CL, cs.LG | Model Hemorrhage and the Robustness Limits of Large Language Models はコメントを受け付けていません

BeMERC: Behavior-Aware MLLM-based Framework for Multimodal Emotion Recognition in Conversation

要約 会話におけるマルチモーダル感情認識(Merc)は、会話の各発言の感情ラベル … 続きを読む

カテゴリー: cs.CL | BeMERC: Behavior-Aware MLLM-based Framework for Multimodal Emotion Recognition in Conversation はコメントを受け付けていません