要約
データ駆動型ニューラル パス プランナーは、ロボット工学コミュニティでの関心が高まっています。
ただし、ニューラル ネットワーク コンポーネントは通常、ブラック ボックスとして提供され、基礎となる意思決定プロセスがわかりにくくなります。
ブラックボックスの性質により、隠れた悪意のある動作の挿入によって侵害されるリスクにさらされます。
たとえば、攻撃者は、トリガーされると、配達ロボットを特定の(間違っているとはいえ)目的地に誘導したり、事前に定義された領域に閉じ込めたり、ロボットに領域を繰り返し周回させて不必要なエネルギー消費を誘発したりすることによって、配達ロボットを乗っ取る動作を隠す可能性があります。
。
この論文では、バックドアとして知られるさまざまな隠れた悪意のある動作を特定し、ニューラル パス プランナーに注入するための新しいアプローチを提案します。
私たちのアプローチは、これらの動作を定義するための簡潔かつ柔軟な方法を提供し、隠れた動作はわずかな摂動 (例: 目立たない小さなオブジェクトの挿入) によって引き起こされる可能性があり、それでもその完全性を大きく損なう可能性があることを示します。
また、そのようなリスクを軽減することを目的としたバックドアを特定するための潜在的な手法についても説明します。
サンプリング ベースと検索ベースの両方のニューラル パス プランナーに対するアプローチを示します。
要約(オリジナル)
Data-driven neural path planners are attracting increasing interest in the robotics community. However, their neural network components typically come as black boxes, obscuring their underlying decision-making processes. Their black-box nature exposes them to the risk of being compromised via the insertion of hidden malicious behaviors. For example, an attacker may hide behaviors that, when triggered, hijack a delivery robot by guiding it to a specific (albeit wrong) destination, trapping it in a predefined region, or inducing unnecessary energy expenditure by causing the robot to repeatedly circle a region. In this paper, we propose a novel approach to specify and inject a range of hidden malicious behaviors, known as backdoors, into neural path planners. Our approach provides a concise but flexible way to define these behaviors, and we show that hidden behaviors can be triggered by slight perturbations (e.g., inserting a tiny unnoticeable object), that can nonetheless significantly compromise their integrity. We also discuss potential techniques to identify these backdoors aimed at alleviating such risks. We demonstrate our approach on both sampling-based and search-based neural path planners.
arxiv情報
著者 | Zikang Xiong,Suresh Jagannathan |
発行日 | 2024-03-27 04:56:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google