cs.CL」カテゴリーアーカイブ

From Benign import Toxic: Jailbreaking the Language Model via Adversarial Metaphors

要約 現在の研究は、脱獄攻撃によって有害なコンテンツを生成する大規模な言語モデル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

Micro-Act: Mitigate Knowledge Conflict in Question Answering via Actionable Self-Reasoning

要約 検索された生成(RAG)システムは、一般に知識の対立に苦しみます。 質問応 … 続きを読む

カテゴリー: cs.AI, cs.CL | コメントする

ProRefine: Inference-time Prompt Refinement with Textual Feedback

要約 複数のAIエージェントが協力して推論や計画などの複雑なタスクを達成するエー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games

要約 LLMは、主に同期通信で使用され、人間のユーザーとモデルが交互ターンで通信 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.MA | コメントする

Constrained Entropic Unlearning: A Primal-Dual Framework for Large Language Models

要約 現実世界の設定で展開された大規模な言語モデル(LLM)は、繊細、時代遅れ、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

Improving Data Efficiency for LLM Reinforcement Fine-tuning Through Difficulty-targeted Online Data Selection and Rollout Replay

要約 強化学習(RL)は、特に推論能力を高めるために、大規模な言語モデル(LLM … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

AceReason-Nemotron: Advancing Math and Code Reasoning through Reinforcement Learning

要約 推論のための大規模な強化学習(RL)の最近の進歩にもかかわらず、高性能の推 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | コメントする

DREAM: Disentangling Risks to Enhance Safety Alignment in Multimodal Large Language Models

要約 マルチモーダル大手言語モデル(MLLM)は、視覚データとテキストデータの統 … 続きを読む

カテゴリー: cs.CL, cs.CV | コメントする

DEFAME: Dynamic Evidence-based FAct-checking with Multimodal Experts

要約 偽情報の拡散は、信頼性が高くスケーラブルな事実確認ソリューションを必要とし … 続きを読む

カテゴリー: cs.CL, cs.CV | コメントする

ReasonGen-R1: CoT for Autoregressive Image generation models through SFT and RL

要約 考え方の推論と強化学習(RL)がNLPのブレークスルーを駆動していますが、 … 続きを読む

カテゴリー: cs.CL, cs.CV | コメントする