要約
ロボットや自動運転車を含む具体化されたAIシステムは、環境レベルとシステムレベルの両方の要因に起因するさまざまな脆弱性に遭遇する現実世界のアプリケーションにますます統合されています。
これらの脆弱性は、センサーのスプーフィング、敵対的な攻撃、およびタスクとモーションの計画の失敗を通じて現れ、堅牢性と安全性に大きな課題をもたらします。
増加している研究機関にもかかわらず、既存のレビューは、具体的に具体的にAIシステムのユニークな安全性とセキュリティの課題に焦点を当てることはめったにありません。
ほとんどの以前の研究は、一般的なAIの脆弱性に対処するか、孤立した側面に焦点を当てていますが、具体化されたAIに合わせた専用の統一されたフレームワークがありません。
この調査では、この重要なギャップを埋めます。(1)具体化されたAIに特有の脆弱性を外因性(例えば、物理的攻撃、サイバーセキュリティの脅威)および内因性(例えば、センサーの障害、ソフトウェアの欠陥)の起源に分類します。
(2)具体化されたAIに固有の敵対的攻撃パラダイムを体系的に分析し、知覚、意思決定、具体化された相互作用への影響に焦点を当てています。
(3)脱獄攻撃や指導の誤解などの具体化されたシステム内の大規模なビジョン言語モデル(LVLMS)および大規模な言語モデル(LLM)を対象とした攻撃ベクトルの調査。
(4)具体化された認識、意思決定、およびタスク計画のためのアルゴリズムの堅牢性の課題を評価する。
(5)具体化されたAIシステムの安全性と信頼性を高めるためのターゲット戦略を提案する。
これらの次元を統合することにより、具体化されたAIの脆弱性と安全性の相互作用を理解するための包括的なフレームワークを提供します。
要約(オリジナル)
Embodied AI systems, including robots and autonomous vehicles, are increasingly integrated into real-world applications, where they encounter a range of vulnerabilities stemming from both environmental and system-level factors. These vulnerabilities manifest through sensor spoofing, adversarial attacks, and failures in task and motion planning, posing significant challenges to robustness and safety. Despite the growing body of research, existing reviews rarely focus specifically on the unique safety and security challenges of embodied AI systems. Most prior work either addresses general AI vulnerabilities or focuses on isolated aspects, lacking a dedicated and unified framework tailored to embodied AI. This survey fills this critical gap by: (1) categorizing vulnerabilities specific to embodied AI into exogenous (e.g., physical attacks, cybersecurity threats) and endogenous (e.g., sensor failures, software flaws) origins; (2) systematically analyzing adversarial attack paradigms unique to embodied AI, with a focus on their impact on perception, decision-making, and embodied interaction; (3) investigating attack vectors targeting large vision-language models (LVLMs) and large language models (LLMs) within embodied systems, such as jailbreak attacks and instruction misinterpretation; (4) evaluating robustness challenges in algorithms for embodied perception, decision-making, and task planning; and (5) proposing targeted strategies to enhance the safety and reliability of embodied AI systems. By integrating these dimensions, we provide a comprehensive framework for understanding the interplay between vulnerabilities and safety in embodied AI.
arxiv情報
著者 | Wenpeng Xing,Minghao Li,Mohan Li,Meng Han |
発行日 | 2025-02-25 12:49:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google