cs.CR」カテゴリーアーカイブ

CAIN: Hijacking LLM-Humans Conversations via a Two-Stage Malicious System Prompt Generation and Refining Framework

要約 大規模な言語モデル(LLM)は多くのアプリケーションを進めてきましたが、敵 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | コメントする

Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models

要約 大規模な言語モデル(LLMS)には、リアルタイムWeb検索の機能がますます … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする

Backdoor Cleaning without External Guidance in MLLM Fine-tuning

要約 マルチモーダル大手言語モデル(MLLMS)は、ユーザーがサビされたデータセ … 続きを読む

カテゴリー: cs.CR, cs.CV | コメントする

Alignment Under Pressure: The Case for Informed Adversaries When Evaluating LLM Defenses

要約 大規模な言語モデル(LLMS)は、チャットボットからエージェントシステムに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | コメントする

Scalable Defense against In-the-wild Jailbreaking Attacks with Safety Context Retrieval

要約 大規模な言語モデル(LLM)は、侵入攻撃に対して脆弱であることが知られてお … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | コメントする

An In-Depth Investigation of Data Collection in LLM App Ecosystems

要約 LLMアプリ(ツール)エコシステムは急速に進化して、広範なユーザーデータ収 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CY, cs.LG | コメントする

FragFake: A Dataset for Fine-Grained Detection of Edited Images with Vision Language Models

要約 特に、最新の拡散モデルと画像編集方法が非常に現実的な操作を生成する可能性が … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | コメントする

Adaptive Pruning of Deep Neural Networks for Resource-Aware Embedded Intrusion Detection on the Edge

要約 人工ニューラルネットワーク剪定は、ネットワークの予測機能を維持しようとしな … 続きを読む

カテゴリー: cs.CR, cs.LG | コメントする

sudoLLM : On Multi-role Alignment of Language Models

要約 ユーザー認証ベースのアクセス特権は、多くの安全性が批判的なシステムの重要な … 続きを読む

カテゴリー: cs.CL, cs.CR, I.2.7 | コメントする

Can Large Language Models Really Recognize Your Name?

要約 大規模な言語モデル(LLM)は、機密のユーザーデータを保護するためにますま … 続きを読む

カテゴリー: cs.AI, cs.CR | コメントする