Overload: Latency Attacks on Object Detection for Edge Devices

要約

タイトル:エッジデバイスのオブジェクト検出に対するレイテンシ攻撃

要約:

– ディープラーニングベースのアプリケーションをエッジデバイスに展開することは、インテリジェントなサービスに対する要求の増加に伴い、今日の必須のタスクである。
– しかし、エッジノード上の限られた計算リソースのために、 モデルは攻撃に対して脆弱になる。つまり、モデルによって行われる予測が信頼性に欠ける。
– 本研究では、深層学習アプリケーションに対するレイテンシ攻撃について調査している。一般的な誤分類のための攻撃とは異なり、レイテンシ攻撃の目的は、アプリケーションが合理的な時間内に要求に応答できなくなる可能性のある推論時間を増加させることです。
– この種の攻撃は、さまざまなアプリケーションにとって普遍的であるため、オブジェクト検出を使用して、このような攻撃がどのように機能するかを示します。
– 我々はまた、Overloadというフレームワークを設計し、スケールメリットにおけるレイテンシ攻撃を生成することができます。私たちの方法は、新しくフォーミュレートされた最適化問題と、推論時間を増加させるための空間注意という新しいテクニックに基づいています。
– 私たちは、Nvidia NXでYOLOv5モデルを使用して実験を行いました。実験の結果、レイテンシ攻撃により、通常の設定と比較して、単一の画像の推論時間が10倍長くなることが示されました。さらに、既存の方法と比較して、私たちの攻撃方法はよりシンプルで効果的です。

要約(オリジナル)

Nowadays, the deployment of deep learning based applications on edge devices is an essential task owing to the increasing demands on intelligent services. However, the limited computing resources on edge nodes make the models vulnerable to attacks, such that the predictions made by models are unreliable. In this paper, we investigate latency attacks on deep learning applications. Unlike common adversarial attacks for misclassification, the goal of latency attacks is to increase the inference time, which may stop applications from responding to the requests within a reasonable time. This kind of attack is ubiquitous for various applications, and we use object detection to demonstrate how such kind of attacks work. We also design a framework named Overload to generate latency attacks at scale. Our method is based on a newly formulated optimization problem and a novel technique, called spatial attention, to increase the inference time of object detection. We have conducted experiments using YOLOv5 models on Nvidia NX. The experimental results show that with latency attacks, the inference time of a single image can be increased ten times longer in reference to the normal setting. Moreover, comparing to existing methods, our attacking method is simpler and more effective.

arxiv情報

著者 Erh-Chung Chen,Pin-Yu Chen,I-Hsin Chung,Che-rung Lee
発行日 2023-04-12 05:17:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク