要約
大規模な言語モデル(LLMS)には、リアルタイムWeb検索の機能がますます装備されており、モデルコンテキストプロトコル(MCP)などのプロトコルと統合されています。
この拡張機能は、新しいセキュリティの脆弱性を導入する可能性があります。
LLMの脆弱性の体系的な調査を、Webページなどの外部リソースでの悪意のあるフォントインジェクションを介して隠された敵対的プロンプトに対して系統的調査を提示します。攻撃者は、ユーザーには見えない欺ceptiveコンテンツを注入するためにコード間マッピングを操作します。
(1)「悪意のあるコンテンツリレー」と(2)MCP対応ツールを介した「機密データの漏れ」という2つの重要な攻撃シナリオを評価します。
私たちの実験は、注入された悪意のあるフォントを使用した間接プロンプトが外部リソースを通じてLLM安全メカニズムをバイパスできることを明らかにし、データの感度と迅速な設計に基づいてさまざまな成功率を達成します。
私たちの研究は、外部コンテンツを処理する際にLLM展開における強化されたセキュリティ対策に対する緊急の必要性を強調しています。
要約(オリジナル)
Large Language Models (LLMs) are increasingly equipped with capabilities of real-time web search and integrated with protocols like Model Context Protocol (MCP). This extension could introduce new security vulnerabilities. We present a systematic investigation of LLM vulnerabilities to hidden adversarial prompts through malicious font injection in external resources like webpages, where attackers manipulate code-to-glyph mapping to inject deceptive content which are invisible to users. We evaluate two critical attack scenarios: (1) ‘malicious content relay’ and (2) ‘sensitive data leakage’ through MCP-enabled tools. Our experiments reveal that indirect prompts with injected malicious font can bypass LLM safety mechanisms through external resources, achieving varying success rates based on data sensitivity and prompt design. Our research underscores the urgent need for enhanced security measures in LLM deployments when processing external content.
arxiv情報
著者 | Junjie Xiong,Changjia Zhu,Shuhang Lin,Chong Zhang,Yongfeng Zhang,Yao Liu,Lingyao Li |
発行日 | 2025-05-22 17:36:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google