cs.CL」カテゴリーアーカイブ

Multi-Domain Explainability of Preferences

要約 人間の好み、LLM-as-a-a-judge(laaj)、報酬モデルなどの … 続きを読む

カテゴリー: cs.CL | Multi-Domain Explainability of Preferences はコメントを受け付けていません

S2LPP: Small-to-Large Prompt Prediction across LLMs

要約 事前に訓練された大型言語モデル(LLMS)のパフォーマンスは、多くの場合、 … 続きを読む

カテゴリー: cs.CL | S2LPP: Small-to-Large Prompt Prediction across LLMs はコメントを受け付けていません

Adaptive Deep Reasoning: Triggering Deep Thinking When Needed

要約 大規模な言語モデル(LLM)は、長鎖の推論を通じて複雑なタスクを処理する上 … 続きを読む

カテゴリー: cs.CL | Adaptive Deep Reasoning: Triggering Deep Thinking When Needed はコメントを受け付けていません

SCIRGC: Multi-Granularity Citation Recommendation and Citation Sentence Preference Alignment

要約 科学研究の記事では、現在の研究と以前の研究との関係を強調しているため、引用 … 続きを読む

カテゴリー: cs.CL, cs.DL | SCIRGC: Multi-Granularity Citation Recommendation and Citation Sentence Preference Alignment はコメントを受け付けていません

TrojanStego: Your Language Model Can Secretly Be A Steganographic Privacy Leaking Agent

要約 大規模な言語モデル(LLM)がデリケートなワークフローに統合されると、懸念 … 続きを読む

カテゴリー: cs.CL, cs.CR | TrojanStego: Your Language Model Can Secretly Be A Steganographic Privacy Leaking Agent はコメントを受け付けていません

PandaGuard: Systematic Evaluation of LLM Safety against Jailbreaking Attacks

要約 大規模な言語モデル(LLMS)は顕著な能力を達成していますが、ジェイルブレ … 続きを読む

カテゴリー: cs.CL, cs.CR | PandaGuard: Systematic Evaluation of LLM Safety against Jailbreaking Attacks はコメントを受け付けていません

Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers

要約 大規模な言語モデル(LLM)は、従来の技術を進めるために情報検索に広く統合 … 続きを読む

カテゴリー: cs.CL | Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers はコメントを受け付けていません

AweDist: Attention-aware Embedding Distillation for New Input Token Embeddings

要約 現在の言語モデルは、前脱出時間で決定された静的な語彙に依存しており、これに … 続きを読む

カテゴリー: cs.CL, cs.LG | AweDist: Attention-aware Embedding Distillation for New Input Token Embeddings はコメントを受け付けていません

SeMe: Training-Free Language Model Merging via Semantic Alignment

要約 多様なタスク全体の言語モデル(LMS)の顕著な能力にもかかわらず、単一のモ … 続きを読む

カテゴリー: cs.CL, cs.LG | SeMe: Training-Free Language Model Merging via Semantic Alignment はコメントを受け付けていません

Thought-Augmented Policy Optimization: Bridging External Guidance and Internal Capabilities

要約 強化学習(RL)は、推論モデルをトレーニングするための効果的な方法として浮 … 続きを読む

カテゴリー: cs.CL, cs.LG | Thought-Augmented Policy Optimization: Bridging External Guidance and Internal Capabilities はコメントを受け付けていません