cs.CR」カテゴリーアーカイブ

TrojanStego: Your Language Model Can Secretly Be A Steganographic Privacy Leaking Agent

要約 大規模な言語モデル(LLM)がデリケートなワークフローに統合されると、懸念 … 続きを読む

カテゴリー: cs.CL, cs.CR | TrojanStego: Your Language Model Can Secretly Be A Steganographic Privacy Leaking Agent はコメントを受け付けていません

PandaGuard: Systematic Evaluation of LLM Safety against Jailbreaking Attacks

要約 大規模な言語モデル(LLMS)は顕著な能力を達成していますが、ジェイルブレ … 続きを読む

カテゴリー: cs.CL, cs.CR | PandaGuard: Systematic Evaluation of LLM Safety against Jailbreaking Attacks はコメントを受け付けていません

Crabs: Consuming Resource via Auto-generation for LLM-DoS Attack under Black-box Settings

要約 大規模な言語モデル(LLMS)は、多様なタスク全体で顕著なパフォーマンスを … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Crabs: Consuming Resource via Auto-generation for LLM-DoS Attack under Black-box Settings はコメントを受け付けていません

A Survey on the Safety and Security Threats of Computer-Using Agents: JARVIS or Ultron?

要約 最近、コンピューティングデバイスとのAI駆動型の相互作用は、基本的なプロト … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.CV, cs.SE | A Survey on the Safety and Security Threats of Computer-Using Agents: JARVIS or Ultron? はコメントを受け付けていません

Revisiting Adversarial Perception Attacks and Defense Methods on Autonomous Driving Systems

要約 自律運転システム(ADS)は、敵対的な攻撃に対して脆弱なままである深い学習 … 続きを読む

カテゴリー: cs.CR, cs.RO | Revisiting Adversarial Perception Attacks and Defense Methods on Autonomous Driving Systems はコメントを受け付けていません

Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning

要約 大規模な言語モデル(LLMS)は、ドメイン固有の知識で応答を補うために、検 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.IR, cs.LG | Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning はコメントを受け付けていません

Gaming Tool Preferences in Agentic LLMs

要約 大規模な言語モデル(LLMS)は、モデルコンテキストプロトコル(MCP)の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Gaming Tool Preferences in Agentic LLMs はコメントを受け付けていません

Forensics Adapter: Unleashing CLIP for Generalizable Face Forgery Detection

要約 Clipを効果的で一般化可能なFace Forgery Detectorに … 続きを読む

カテゴリー: cs.CR, cs.CV, cs.LG | Forensics Adapter: Unleashing CLIP for Generalizable Face Forgery Detection はコメントを受け付けていません

CAIN: Hijacking LLM-Humans Conversations via a Two-Stage Malicious System Prompt Generation and Refining Framework

要約 大規模な言語モデル(LLM)は多くのアプリケーションを進めてきましたが、敵 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | CAIN: Hijacking LLM-Humans Conversations via a Two-Stage Malicious System Prompt Generation and Refining Framework はコメントを受け付けていません

Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models

要約 大規模な言語モデル(LLMS)には、リアルタイムWeb検索の機能がますます … 続きを読む

カテゴリー: cs.AI, cs.CR | Invisible Prompts, Visible Threats: Malicious Font Injection in External Resources for Large Language Models はコメントを受け付けていません