月別アーカイブ: 2025年5月

Adaptive Deep Reasoning: Triggering Deep Thinking When Needed

要約 大規模な言語モデル(LLM)は、長鎖の推論を通じて複雑なタスクを処理する上 … 続きを読む

カテゴリー: cs.CL | Adaptive Deep Reasoning: Triggering Deep Thinking When Needed はコメントを受け付けていません

SCIRGC: Multi-Granularity Citation Recommendation and Citation Sentence Preference Alignment

要約 科学研究の記事では、現在の研究と以前の研究との関係を強調しているため、引用 … 続きを読む

カテゴリー: cs.CL, cs.DL | SCIRGC: Multi-Granularity Citation Recommendation and Citation Sentence Preference Alignment はコメントを受け付けていません

TrojanStego: Your Language Model Can Secretly Be A Steganographic Privacy Leaking Agent

要約 大規模な言語モデル(LLM)がデリケートなワークフローに統合されると、懸念 … 続きを読む

カテゴリー: cs.CL, cs.CR | TrojanStego: Your Language Model Can Secretly Be A Steganographic Privacy Leaking Agent はコメントを受け付けていません

PandaGuard: Systematic Evaluation of LLM Safety against Jailbreaking Attacks

要約 大規模な言語モデル(LLMS)は顕著な能力を達成していますが、ジェイルブレ … 続きを読む

カテゴリー: cs.CL, cs.CR | PandaGuard: Systematic Evaluation of LLM Safety against Jailbreaking Attacks はコメントを受け付けていません

Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers

要約 大規模な言語モデル(LLM)は、従来の技術を進めるために情報検索に広く統合 … 続きを読む

カテゴリー: cs.CL | Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers はコメントを受け付けていません

AweDist: Attention-aware Embedding Distillation for New Input Token Embeddings

要約 現在の言語モデルは、前脱出時間で決定された静的な語彙に依存しており、これに … 続きを読む

カテゴリー: cs.CL, cs.LG | AweDist: Attention-aware Embedding Distillation for New Input Token Embeddings はコメントを受け付けていません

SeMe: Training-Free Language Model Merging via Semantic Alignment

要約 多様なタスク全体の言語モデル(LMS)の顕著な能力にもかかわらず、単一のモ … 続きを読む

カテゴリー: cs.CL, cs.LG | SeMe: Training-Free Language Model Merging via Semantic Alignment はコメントを受け付けていません

Thought-Augmented Policy Optimization: Bridging External Guidance and Internal Capabilities

要約 強化学習(RL)は、推論モデルをトレーニングするための効果的な方法として浮 … 続きを読む

カテゴリー: cs.CL, cs.LG | Thought-Augmented Policy Optimization: Bridging External Guidance and Internal Capabilities はコメントを受け付けていません

UORA: Uniform Orthogonal Reinitialization Adaptation in Parameter-Efficient Fine-Tuning of Large Models

要約 このホワイトペーパーでは、大規模な言語モデル(LLM)の新しいパラメーター … 続きを読む

カテゴリー: cs.CL | UORA: Uniform Orthogonal Reinitialization Adaptation in Parameter-Efficient Fine-Tuning of Large Models はコメントを受け付けていません

Pangu Light: Weight Re-Initialization for Pruning and Accelerating LLMs

要約 大規模な言語モデル(LLMS)は、多数のタスクにわたって最先端の機能を提供 … 続きを読む

カテゴリー: cs.CL | Pangu Light: Weight Re-Initialization for Pruning and Accelerating LLMs はコメントを受け付けていません