要約
ロボット工学の進歩に伴い、大規模な工場や倉庫では、人間のすぐ近くで動作するビジュアル SLAM (vSLAM) 対応の自動ロボットを組み込むことがますます一般的になってきています。
これにより、vSLAM コンポーネントに対する敵対的な攻撃は、一緒に作業する人間に潜在的に有害になります。
ループ閉鎖検出 (LCD) は、マッピングにおけるドリフトの蓄積を最小限に抑える vSLAM の重要なコンポーネントです。これは、小さなドリフトでも時間の経過とともに蓄積されて重大なドリフトになる可能性があるためです。
Kim らによる以前の研究である SymbioLCD2 では、ループ クロージャの候補を見つけるために、視覚的特徴とセマンティック オブジェクトを単一のグラフ構造に統合しました。
これにより、ビジュアル機能ベースの LCD よりもパフォーマンスが向上しましたが、潜在的なグラフベースの敵対的攻撃に対する単一点の脆弱性も生じました。
以前に報告された視覚パッチベースの攻撃とは異なり、グラフの小さな変動は検出がはるかに難しく、より重大な脅威となります。
この論文では、グラフベースの LCD を攻撃するための固有中心性ベースの摂動法と Weisfeiler-Lehman 特徴抽出器を備えた SVM-RBF サロゲート モデルを採用する新しいブラックボックス回避攻撃フレームワークである Adversarial-LCD を紹介します。
私たちの評価では、SVM-RBF サロゲート モデルを使用した Adversarial-LCD の攻撃パフォーマンスが、SVM 線形、SVM 多項式、ベイジアン分類器などの他の機械学習サロゲート アルゴリズムより優れていることが示され、攻撃フレームワークの有効性が実証されました。
さらに、固有中心性に基づく摂動法がランダムウォークや最短パスなどの他のアルゴリズムよりも優れていることを示し、Adversarial-LCD の摂動選択法の効率性を強調しています。
要約(オリジナル)
With the advancement in robotics, it is becoming increasingly common for large factories and warehouses to incorporate visual SLAM (vSLAM) enabled automated robots that operate closely next to humans. This makes any adversarial attacks on vSLAM components potentially detrimental to humans working alongside them. Loop Closure Detection (LCD) is a crucial component in vSLAM that minimizes the accumulation of drift in mapping, since even a small drift can accumulate into a significant drift over time. A prior work by Kim et al., SymbioLCD2, unified visual features and semantic objects into a single graph structure for finding loop closure candidates. While this provided a performance improvement over visual feature-based LCD, it also created a single point of vulnerability for potential graph-based adversarial attacks. Unlike previously reported visual-patch based attacks, small graph perturbations are far more challenging to detect, making them a more significant threat. In this paper, we present Adversarial-LCD, a novel black-box evasion attack framework that employs an eigencentrality-based perturbation method and an SVM-RBF surrogate model with a Weisfeiler-Lehman feature extractor for attacking graph-based LCD. Our evaluation shows that the attack performance of Adversarial-LCD with the SVM-RBF surrogate model was superior to that of other machine learning surrogate algorithms, including SVM-linear, SVM-polynomial, and Bayesian classifier, demonstrating the effectiveness of our attack framework. Furthermore, we show that our eigencentrality-based perturbation method outperforms other algorithms, such as Random-walk and Shortest-path, highlighting the efficiency of Adversarial-LCD’s perturbation selection method.
arxiv情報
著者 | Jonathan J. Y. Kim,Martin Urschler,Patricia J. Riddle,Jorg S. Wicker |
発行日 | 2023-12-12 05:23:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google