cs.CL」カテゴリーアーカイブ

Think Before Recommend: Unleashing the Latent Reasoning Power for Sequential Recommendation

要約 シーケンシャル推奨(SEQREC)は、ユーザーの歴史的相互作用からシーケン … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | Think Before Recommend: Unleashing the Latent Reasoning Power for Sequential Recommendation はコメントを受け付けていません

Robust and Fine-Grained Detection of AI Generated Texts

要約 マシン生成コンテンツの理想的な検出システムは、より多くの高度なLLMが日々 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Robust and Fine-Grained Detection of AI Generated Texts はコメントを受け付けていません

Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation

要約 大規模なマルチモーダル言語モデルの出現により、Scienceは現在、AIベ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation はコメントを受け付けていません

LLM-as-a-Judge: Reassessing the Performance of LLMs in Extractive QA

要約 抽出読解力質問応答(QA)データセットは通常、正確な一致(EM)とF1スコ … 続きを読む

カテゴリー: cs.CL | LLM-as-a-Judge: Reassessing the Performance of LLMs in Extractive QA はコメントを受け付けていません

SemEval-2025 Task 3: Mu-SHROOM, the Multilingual Shared Task on Hallucinations and Related Observable Overgeneration Mistakes

要約 MU-Shroom共有タスクを提示します。これは、命令チューニングされた大 … 続きを読む

カテゴリー: cs.CL | SemEval-2025 Task 3: Mu-SHROOM, the Multilingual Shared Task on Hallucinations and Related Observable Overgeneration Mistakes はコメントを受け付けていません

Language Models as Quasi-Crystalline Thought: Structure, Constraint, and Emergence in Generative Systems

要約 このエッセイは、大規模な言語モデル(LLM)と準結晶の類似性を提案していま … 続きを読む

カテゴリー: cs.AI, cs.CL | Language Models as Quasi-Crystalline Thought: Structure, Constraint, and Emergence in Generative Systems はコメントを受け付けていません

Bayesian dynamic borrowing considering semantic similarity between outcomes for disproportionality analysis in FAERS

要約 自発的な報告システム(SRSS)の有害事象(AES)の定量的識別を強化する … 続きを読む

カテゴリー: cs.CL, G.3 | Bayesian dynamic borrowing considering semantic similarity between outcomes for disproportionality analysis in FAERS はコメントを受け付けていません

Fine-Grained Reward Optimization for Machine Translation using Error Severity Mappings

要約 強化学習(RL)は、特に翻訳の品質を正確に評価する強力な報酬モデルと組み合 … 続きを読む

カテゴリー: cs.CL | Fine-Grained Reward Optimization for Machine Translation using Error Severity Mappings はコメントを受け付けていません

Gauging Overprecision in LLMs: An Empirical Study

要約 最近、大規模な言語モデル(LLMS)の自信過剰は、LLM世代の信頼性を定量 … 続きを読む

カテゴリー: cs.CL | Gauging Overprecision in LLMs: An Empirical Study はコメントを受け付けていません

Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation

要約 大規模な言語モデル(LLMS)の急速な発展は、コンテンツのトレーサビリティ … 続きを読む

カテゴリー: cs.CL | Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation はコメントを受け付けていません