cs.CL」カテゴリーアーカイブ

Do Large Language Models Exhibit Cognitive Dissonance? Studying the Difference Between Revealed Beliefs and Stated Answers

要約 複数選択の質問(MCQ)は、操作と評価が容易なため、大規模な言語モデル(L … 続きを読む

カテゴリー: cs.AI, cs.CL | Do Large Language Models Exhibit Cognitive Dissonance? Studying the Difference Between Revealed Beliefs and Stated Answers はコメントを受け付けていません

IP Leakage Attacks Targeting LLM-Based Multi-Agent Systems

要約 大規模な言語モデル(LLMS)の急速な進歩により、マルチエージェントシステ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | IP Leakage Attacks Targeting LLM-Based Multi-Agent Systems はコメントを受け付けていません

Revisiting Chain-of-Thought Prompting: Zero-shot Can Be Stronger than Few-shot

要約 コンテキスト内学習(ICL)は、大規模な言語モデル(LLM)の重要な緊急能 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Revisiting Chain-of-Thought Prompting: Zero-shot Can Be Stronger than Few-shot はコメントを受け付けていません

Convert Language Model into a Value-based Strategic Planner

要約 感情的なサポート会話(ESC)は、効果的な会話を通じて個人の感情的な苦痛を … 続きを読む

カテゴリー: cs.AI, cs.CL | Convert Language Model into a Value-based Strategic Planner はコメントを受け付けていません

Agent Laboratory: Using LLM Agents as Research Assistants

要約 歴史的に、科学的発見は長くて費用のかかるプロセスであり、最初の概念から最終 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC, cs.LG | Agent Laboratory: Using LLM Agents as Research Assistants はコメントを受け付けていません

The Alternative Annotator Test for LLM-as-a-Judge: How to Statistically Justify Replacing Human Annotators with LLMs

要約 「LLM-As-An-Annotator」および「LLM-As-A-Jud … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC | The Alternative Annotator Test for LLM-as-a-Judge: How to Statistically Justify Replacing Human Annotators with LLMs はコメントを受け付けていません

Bridging Social Media and Search Engines: Dredge Words and the Detection of Unreliable Domains

要約 プロアクティブなコンテンツモデレートには、プラットフォームがWebサイトの … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG, cs.SI | Bridging Social Media and Search Engines: Dredge Words and the Detection of Unreliable Domains はコメントを受け付けていません

Reparameterized LLM Training via Orthogonal Equivalence Transformation

要約 大規模な言語モデル(LLM)が人工知能の急速な進歩を推進していますが、これ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Reparameterized LLM Training via Orthogonal Equivalence Transformation はコメントを受け付けていません

Ring-lite: Scalable Reasoning via C3PO-Stabilized Reinforcement Learning for LLMs

要約 効率的で堅牢な推論能力を実現するために、強化学習(RL)を介して最適化され … 続きを読む

カテゴリー: cs.AI, cs.CL | Ring-lite: Scalable Reasoning via C3PO-Stabilized Reinforcement Learning for LLMs はコメントを受け付けていません

Optimizing Length Compression in Large Reasoning Models

要約 大規模な推論モデル(LRM)は驚くべき成功を収めていますが、しばしば不必要 … 続きを読む

カテゴリー: cs.AI, cs.CL | Optimizing Length Compression in Large Reasoning Models はコメントを受け付けていません