Robust Adversarial Attacks Detection for Deep Learning based Relative Pose Estimation for Space Rendezvous

要約

自律宇宙船の相対航法課題に対する深層学習技術の開発に関する研究は、近年継続的に成長しています。
これらの技術を採用すると、パフォーマンスが向上します。
ただし、このようなアプローチでは、敵対的な攻撃を受けやすいため、そのような深層学習手法の信頼性とセキュリティについての懸念も高まります。
この研究では、説明可能性の概念に基づいたディープ ニューラル ネットワーク ベースの相対姿勢推定スキームに対する敵対的攻撃検出のための新しいアプローチを提案します。
私たちは、軌道ランデブーシナリオ向けに、私たちが提案する畳み込みニューラルネットワーク(CNN)を採用した革新的な相対姿勢推定技術を開発します。この技術は、チェイサーの搭載カメラから画像を取得し、ターゲットの相対位置と回転を正確に出力します。
Fast Gradient Sign Method (FGSM) によって生成される敵対的攻撃を使用して、入力画像をシームレスに撹乱します。
次に、敵対的攻撃検出器は、長期短期記憶 (LSTM) ネットワークに基づいて構築されます。LSTM ネットワークは、CNN ベースの姿勢推定器から説明可能性の尺度、つまり SHapley 値を取得し、動作時に敵対的攻撃の検出にフラグを立てます。
シミュレーション結果は、提案された敵対的攻撃検出器が 99.21% の検出精度を達成することを示しています。
その後、ディープ相対ポーズ推定器と敵対的攻撃検出器の両方が、研究室で設計されたセットアップからキャプチャされた実際のデータでテストされます。
実験室で設計されたセットアップの実験結果は、提案された敵対的攻撃検出器が平均 96.29% の検出精度を達成することを示しています。

要約(オリジナル)

Research on developing deep learning techniques for autonomous spacecraft relative navigation challenges is continuously growing in recent years. Adopting those techniques offers enhanced performance. However, such approaches also introduce heightened apprehensions regarding the trustability and security of such deep learning methods through their susceptibility to adversarial attacks. In this work, we propose a novel approach for adversarial attack detection for deep neural network-based relative pose estimation schemes based on the explainability concept. We develop for an orbital rendezvous scenario an innovative relative pose estimation technique adopting our proposed Convolutional Neural Network (CNN), which takes an image from the chaser’s onboard camera and outputs accurately the target’s relative position and rotation. We perturb seamlessly the input images using adversarial attacks that are generated by the Fast Gradient Sign Method (FGSM). The adversarial attack detector is then built based on a Long Short Term Memory (LSTM) network which takes the explainability measure namely SHapley Value from the CNN-based pose estimator and flags the detection of adversarial attacks when acting. Simulation results show that the proposed adversarial attack detector achieves a detection accuracy of 99.21%. Both the deep relative pose estimator and adversarial attack detector are then tested on real data captured from our laboratory-designed setup. The experimental results from our laboratory-designed setup demonstrate that the proposed adversarial attack detector achieves an average detection accuracy of 96.29%.

arxiv情報

著者 Ziwei Wang,Nabil Aouf,Jose Pizarro,Christophe Honvault
発行日 2023-11-10 11:07:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG, cs.RO パーマリンク