Impact of Architectural Modifications on Deep Learning Adversarial Robustness

要約

ディープラーニングの急速な進歩により、自動運転車、ドローン、ロボット、監視システムなどのセーフティクリティカルなアプリケーションを含む、さまざまなアプリケーションでの採用が加速している。これらの進歩には、モデルの性能を向上させる洗練された技術のバリエーションの適用が含まれる。しかし、このようなモデルは敵対的な操作から免れることはできません。敵対的な操作は、システムを誤動作させ、専門家に気づかれないままにする可能性があります。既存のディープラーニングモデルに対する修正が頻繁に行われるため、モデルのロバスト性への影響を判断するための徹底的な分析が必要である。本研究では、敵対的攻撃を用いて、モデルの修正が深層学習モデルの頑健性に与える影響を実験的に評価する。我々の方法論では、様々な敵対的攻撃に対するモデルのバリエーションの頑健性を検証する。実験を行うことで、セーフティクリティカルかつセキュリティクリティカルなアプリケーションにおける深層学習モデルの信頼性と安全性を維持するという重要な問題に光を当てることを目指す。我々の結果は、モデルの変更がモデルの頑健性に及ぼす影響の詳細な評価が急務であることを示している。

要約(オリジナル)

Rapid advancements of deep learning are accelerating adoption in a wide variety of applications, including safety-critical applications such as self-driving vehicles, drones, robots, and surveillance systems. These advancements include applying variations of sophisticated techniques that improve the performance of models. However, such models are not immune to adversarial manipulations, which can cause the system to misbehave and remain unnoticed by experts. The frequency of modifications to existing deep learning models necessitates thorough analysis to determine the impact on models’ robustness. In this work, we present an experimental evaluation of the effects of model modifications on deep learning model robustness using adversarial attacks. Our methodology involves examining the robustness of variations of models against various adversarial attacks. By conducting our experiments, we aim to shed light on the critical issue of maintaining the reliability and safety of deep learning models in safety- and security-critical applications. Our results indicate the pressing demand for an in-depth assessment of the effects of model changes on the robustness of models.

arxiv情報

著者 Firuz Juraev,Mohammed Abuhamad,Simon S. Woo,George K Thiruvathukal,Tamer Abuhmed
発行日 2024-05-03 08:58:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CR, cs.CV, cs.LG パーマリンク