Efficiency Robustness of Dynamic Deep Learning Systems

要約

ディープラーニングシステム(DLSS)は、モバイルデバイスやIoTデバイスなどのResourceConstraended環境を含むリアルタイムアプリケーションでますます展開されています。
効率の課題に対処するために、動的ディープラーニングシステム(DDLS)は、入力の複雑さに基づいて推論計算を適応させ、頭上を減らします。
この動的な動作により効率が向上しますが、このような動作は新しい攻撃表面を導入します。
特に、効率性攻撃は、これらの動的メカニズムを活用して、システムのパフォーマンスを低下させます。
このペーパーでは、DDLSSの効率性の堅牢性を体系的に調査し、効率攻撃の最初の包括的な分類法を提示します。
これらの攻撃を3つの動的な動作に基づいて分類します。(i)推論ごとの動的計算に対する攻撃、(ii)動的推論の反復に対する攻撃、および(iii)下流タスクの動的出力生産に対する攻撃。
詳細な評価を通じて、DDLSS効率をターゲットにする敵対的な戦略を分析し、これらのシステムを確保する上で重要な課題を特定します。
さらに、既存の防御メカニズムを調査し、ますます人気のある効率攻撃に対する制限と、将来の適応DDLSを確保するための新しい緩和戦略の必要性を実証します。

要約(オリジナル)

Deep Learning Systems (DLSs) are increasingly deployed in real-time applications, including those in resourceconstrained environments such as mobile and IoT devices. To address efficiency challenges, Dynamic Deep Learning Systems (DDLSs) adapt inference computation based on input complexity, reducing overhead. While this dynamic behavior improves efficiency, such behavior introduces new attack surfaces. In particular, efficiency adversarial attacks exploit these dynamic mechanisms to degrade system performance. This paper systematically explores efficiency robustness of DDLSs, presenting the first comprehensive taxonomy of efficiency attacks. We categorize these attacks based on three dynamic behaviors: (i) attacks on dynamic computations per inference, (ii) attacks on dynamic inference iterations, and (iii) attacks on dynamic output production for downstream tasks. Through an in-depth evaluation, we analyze adversarial strategies that target DDLSs efficiency and identify key challenges in securing these systems. In addition, we investigate existing defense mechanisms, demonstrating their limitations against increasingly popular efficiency attacks and the necessity for novel mitigation strategies to secure future adaptive DDLSs.

arxiv情報

著者 Ravishka Rathnasuriya,Tingxi Li,Zexin Xu,Zihe Song,Mirazul Haque,Simin Chen,Wei Yang
発行日 2025-06-12 15:49:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク