要約
研究者がAIエージェントを継続的に最適化して、オペレーティングシステム内でタスクをより効果的に実行するため、これらのエージェントがシステム内で「詐欺師」を特定できるようにするための重要なニーズに対処することを怠ることがよくあります。
エージェントの操作環境の分析を通じて、潜在的な脅威を特定しました。攻撃者は攻撃方法を環境要素として偽装し、エージェントの実行プロセスに積極的な障害を注入し、それによって意思決定を混乱させることができます。
このタイプの攻撃をアクティブな環境注入攻撃(AEIA)として定義します。
これに基づいて、モバイルオペレーティングシステムの相互作用の脆弱性を活用して、そのような脅威に対するMLLMベースのエージェントの堅牢性を評価するアクティブな環境注入攻撃スキームであるAEIA-MNを提案します。
実験結果は、高度なMLLMでさえこの攻撃に対して非常に脆弱であり、AndroidWorldベンチマークで93%の最大攻撃成功率を達成することを示しています。
要約(オリジナル)
As researchers continuously optimize AI agents to perform tasks more effectively within operating systems, they often neglect to address the critical need for enabling these agents to identify ‘impostors’ within the system. Through an analysis of the agents’ operating environment, we identified a potential threat: attackers can disguise their attack methods as environmental elements, injecting active disturbances into the agents’ execution process, thereby disrupting their decision-making. We define this type of attack as Active Environment Injection Attack (AEIA). Based on this, we propose AEIA-MN, an active environment injection attack scheme that exploits interaction vulnerabilities in the mobile operating system to evaluate the robustness of MLLM-based agents against such threats. Experimental results show that even advanced MLLMs are highly vulnerable to this attack, achieving a maximum attack success rate of 93% in the AndroidWorld benchmark.
arxiv情報
著者 | Yurun Chen,Xueyu Hu,Keting Yin,Juncheng Li,Shengyu Zhang |
発行日 | 2025-02-18 17:01:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google