月別アーカイブ: 2025年3月

SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors

要約 ニューラル・サロゲート・モデルは、データマイニングにおける強力かつ効率的な … 続きを読む

カテゴリー: cs.CL, cs.LG | SURGE: On the Potential of Large Language Models as General-Purpose Surrogate Code Executors はコメントを受け付けていません

LaERC-S: Improving LLM-based Emotion Recognition in Conversation with Speaker Characteristics

要約 会話における感情認識(ERC)は、会話内の各発言に対する人間の感情を識別す … 続きを読む

カテゴリー: cs.CL | LaERC-S: Improving LLM-based Emotion Recognition in Conversation with Speaker Characteristics はコメントを受け付けていません

Speculative Decoding and Beyond: An In-Depth Survey of Techniques

要約 逐次的な依存関係は、特にリアルタイムアプリケーションにおいて、大規模な自己 … 続きを読む

カテゴリー: cs.CL | Speculative Decoding and Beyond: An In-Depth Survey of Techniques はコメントを受け付けていません

The ShareLM Collection and Plugin: Contributing Human-Model Chats for the Benefit of the Community

要約 人間とモデルの会話は、ユーザーの実世界のシナリオ、行動、ニーズを知る窓を提 … 続きを読む

カテゴリー: cs.CL | The ShareLM Collection and Plugin: Contributing Human-Model Chats for the Benefit of the Community はコメントを受け付けていません

Optimize Incompatible Parameters through Compatibility-aware Knowledge Integration

要約 ディープニューラルネットワークは、レコメンデーションシステムや自然言語処理 … 続きを読む

カテゴリー: cs.CL, cs.IR, cs.LG | Optimize Incompatible Parameters through Compatibility-aware Knowledge Integration はコメントを受け付けていません

Naturally Occurring Feedback is Common, Extractable and Useful

要約 人間のフィードバックデータは、言語モデルを開発する上で非常に重要な要素であ … 続きを読む

カテゴリー: cs.CL | Naturally Occurring Feedback is Common, Extractable and Useful はコメントを受け付けていません

Can Knowledge Editing Really Correct Hallucinations?

要約 大規模言語モデル(LLM)は、その優れた能力にもかかわらず、生成されたコン … 続きを読む

カテゴリー: cs.CL | Can Knowledge Editing Really Correct Hallucinations? はコメントを受け付けていません

R1-T1: Fully Incentivizing Translation Capability in LLMs via Reasoning Learning

要約 DeepSeek-R1のような推論を強化した大規模言語モデル(LLM)の最 … 続きを読む

カテゴリー: cs.CL | R1-T1: Fully Incentivizing Translation Capability in LLMs via Reasoning Learning はコメントを受け付けていません

Chain of Draft: Thinking Faster by Writing Less

要約 大規模言語モデル(LLM)は、冗長なステップバイステップの推論を重視する思 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Chain of Draft: Thinking Faster by Writing Less はコメントを受け付けていません

PAPILLON: Efficient and Stealthy Fuzz Testing-Powered Jailbreaks for LLMs

要約 大規模言語モデル(LLM)は、様々なタスクにおいて優れているが、攻撃者が有 … 続きを読む

カテゴリー: cs.AI, cs.CR | PAPILLON: Efficient and Stealthy Fuzz Testing-Powered Jailbreaks for LLMs はコメントを受け付けていません