Adversarial Detection: Attacking Object Detection in Real Time

要約

インテリジェント ロボットは、物体検出モデルに依存して環境を認識します。
深層学習セキュリティの進歩に伴い、物体検出モデルが敵対的攻撃に対して脆弱であることが明らかになりました。
ただし、これまでの研究は主に静止画像やオフラインビデオへの攻撃に焦点を当てていました。
したがって、このような攻撃が動的環境における現実世界のロボット アプリケーションを危険にさらす可能性があるかどうかはまだ不明です。
この論文では、物体検出モデルに対する初のリアルタイム オンライン攻撃を紹介することで、このギャップを埋めます。
私たちは、目的の場所に存在しないオブジェクトの境界ボックスを作成する 3 つの攻撃を考案しました。
この攻撃は、約 20 回の反復以内で約 90% の成功率を達成します。
デモビデオは https://youtu.be/zJZ1aNlXsMU でご覧いただけます。

要約(オリジナル)

Intelligent robots rely on object detection models to perceive the environment. Following advances in deep learning security it has been revealed that object detection models are vulnerable to adversarial attacks. However, prior research primarily focuses on attacking static images or offline videos. Therefore, it is still unclear if such attacks could jeopardize real-world robotic applications in dynamic environments. This paper bridges this gap by presenting the first real-time online attack against object detection models. We devise three attacks that fabricate bounding boxes for nonexistent objects at desired locations. The attacks achieve a success rate of about 90% within about 20 iterations. The demo video is available at https://youtu.be/zJZ1aNlXsMU.

arxiv情報

著者 Han Wu,Syed Yunas,Sareh Rowlands,Wenjie Ruan,Johan Wahlstrom
発行日 2023-05-31 10:54:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク