Black-box Adversarial Attacks on CNN-based SLAM Algorithms

要約

深い学習の継続的な進歩により、機能検出が大幅に進歩し、同時ローカリゼーションやマッピング(SLAM)などのタスクの精度が向上しました。
それにもかかわらず、敵対的な攻撃に対する深いニューラルネットワークの脆弱性は、自律エージェントのナビゲーションなど、アプリケーションでの信頼できる展開にとって課題のままです。
CNNベースのSLAMアルゴリズムは成長している研究分野ですが、SLAMシステムの一部として、CNNベースの特徴検出器を対象とした包括的なプレゼンテーションと敵対的攻撃の検査が顕著に欠けています。
私たちの研究では、GCN-SLAMアルゴリズムに供給されたRGB画像に適用されるブラックボックスの敵対的摂動を紹介します。
Tum Dataset [30]に関する私たちの調査結果は、中程度のスケールの攻撃でさえ、フレームの76%で追跡障害につながる可能性があることを明らかにしています。
さらに、私たちの実験は、SLAMシステム上のRGB入力画像の代わりに、深さを攻撃することの壊滅的な影響を強調しています。

要約(オリジナル)

Continuous advancements in deep learning have led to significant progress in feature detection, resulting in enhanced accuracy in tasks like Simultaneous Localization and Mapping (SLAM). Nevertheless, the vulnerability of deep neural networks to adversarial attacks remains a challenge for their reliable deployment in applications, such as navigation of autonomous agents. Even though CNN-based SLAM algorithms are a growing area of research there is a notable absence of a comprehensive presentation and examination of adversarial attacks targeting CNN-based feature detectors, as part of a SLAM system. Our work introduces black-box adversarial perturbations applied to the RGB images fed into the GCN-SLAM algorithm. Our findings on the TUM dataset [30] reveal that even attacks of moderate scale can lead to tracking failure in as many as 76% of the frames. Moreover, our experiments highlight the catastrophic impact of attacking depth instead of RGB input images on the SLAM system.

arxiv情報

著者 Maria Rafaela Gkeka,Bowen Sun,Evgenia Smirni,Christos D. Antonopoulos,Spyros Lalis,Nikolaos Bellas
発行日 2025-05-30 14:41:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: (Primary), 68M25, 68T40, 68T45, cs.CV, cs.RO パーマリンク