The Threats of Embodied Multimodal LLMs: Jailbreaking Robotic Manipulation in the Physical World

要約

身体化人工知能 (AI) は、センサーやアクチュエーターを通じて物理世界と対話し、認識と行動をシームレスに統合する人工知能システムを表します。
この設計により、AI は複雑な現実世界の環境から学習し、その環境内で動作できるようになります。
大規模言語モデル (LLM) は言語命令を深く調査し、複雑なタスクの計画を立てる際に重要な役割を果たします。
その結果、LLM ベースの身体化 AI がコミュニティ内の研究の焦点として台頭しており、身体化 AI を強化する上で計り知れない可能性を徐々に示しています。
今後 10 年間で、LLM ベースの身体型 AI ロボットが広く普及し、家庭や産業で一般的になることが予想されます。
しかし、長い間、目に見えないところに隠されてきた重要な安全性の問題は、LLM ベースの組み込み AI が有害な行為を行う可能性があるのか​​ということです。
私たちの研究は、具体化された AI に脅威的な行動を誘発する方法を初めて調査し、アシモフのロボット工学三原則に明らかに違反し、人間の安全を脅かす、間もなく市販されるロボットによってもたらされる深刻なリスクを裏付けています。
具体的には、私たちは具体化された AI ジェイルブレイクの概念を策定し、3 つの重大なセキュリティ脆弱性を明らかにします。1 つ目は、侵害された LLM によるロボット工学のジェイルブレイクです。
第二に、行動空間と言語空間の間の安全性の不一致。
3 つ目は、気付かない危険な行動につながる欺瞞的なプロンプトです。
また、潜在的な緩和策を分析し、物理世界に組み込まれた AI アプリケーションの安全性に関するコミュニティの認識を提唱します。

要約(オリジナル)

Embodied artificial intelligence (AI) represents an artificial intelligence system that interacts with the physical world through sensors and actuators, seamlessly integrating perception and action. This design enables AI to learn from and operate within complex, real-world environments. Large Language Models (LLMs) deeply explore language instructions, playing a crucial role in devising plans for complex tasks. Consequently, they have progressively shown immense potential in empowering embodied AI, with LLM-based embodied AI emerging as a focal point of research within the community. It is foreseeable that, over the next decade, LLM-based embodied AI robots are expected to proliferate widely, becoming commonplace in homes and industries. However, a critical safety issue that has long been hiding in plain sight is: could LLM-based embodied AI perpetrate harmful behaviors? Our research investigates for the first time how to induce threatening actions in embodied AI, confirming the severe risks posed by these soon-to-be-marketed robots, which starkly contravene Asimov’s Three Laws of Robotics and threaten human safety. Specifically, we formulate the concept of embodied AI jailbreaking and expose three critical security vulnerabilities: first, jailbreaking robotics through compromised LLM; second, safety misalignment between action and language spaces; and third, deceptive prompts leading to unaware hazardous behaviors. We also analyze potential mitigation measures and advocate for community awareness regarding the safety of embodied AI applications in the physical world.

arxiv情報

著者 Hangtao Zhang,Chenyu Zhu,Xianlong Wang,Ziqi Zhou,Yichen Wang,Lulu Xue,Minghui Li,Shengshan Hu,Leo Yu Zhang
発行日 2024-08-15 16:08:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.RO パーマリンク