要約
敵対的な攻撃は、自律車両や防衛システムなどの重要なアプリケーションにおける機械学習モデルの信頼性を脅かしています。
Yolov8のようなモデルでオブジェクト検出器がより堅牢になるにつれて、効果的な敵対的方法論の開発はますます困難になります。
最先端のオブジェクト検出器を欺くために3D車両モデルに敵対的なカモフラージュパターンを生成する新しいフレームワークであるトラック敵対的なカモフラージュ最適化(TACO)を提示します。
Unreal Engine 5を採用するTACOは、微分可能なレンダリングをフォトリアリックなレンダリングネットワークと統合して、Yolov8を対象とした敵対的なテクスチャを最適化します。
生成されたテクスチャが、検出器を欺き、視覚的にもっともらしいのに効果的であることを確認するために、畳み込みの滑らかな損失関数である一般化された滑らかな損失関数を導入します。
実験的評価は、TACOがYolov8の検出パフォーマンスを大幅に低下させ、目に見えないテストデータで0.0099のap@0.5を達成することを示しています。
さらに、これらの敵対的なパターンは、より高速なR-CNNや以前のヨロバージョンなどの他のオブジェクト検出モデルに強い転送可能性を示しています。
要約(オリジナル)
Adversarial attacks threaten the reliability of machine learning models in critical applications like autonomous vehicles and defense systems. As object detectors become more robust with models like YOLOv8, developing effective adversarial methodologies is increasingly challenging. We present Truck Adversarial Camouflage Optimization (TACO), a novel framework that generates adversarial camouflage patterns on 3D vehicle models to deceive state-of-the-art object detectors. Adopting Unreal Engine 5, TACO integrates differentiable rendering with a Photorealistic Rendering Network to optimize adversarial textures targeted at YOLOv8. To ensure the generated textures are both effective in deceiving detectors and visually plausible, we introduce the Convolutional Smooth Loss function, a generalized smooth loss function. Experimental evaluations demonstrate that TACO significantly degrades YOLOv8’s detection performance, achieving an AP@0.5 of 0.0099 on unseen test data. Furthermore, these adversarial patterns exhibit strong transferability to other object detection models such as Faster R-CNN and earlier YOLO versions.
arxiv情報
著者 | Adonisz Dimitriu,Tamás Michaletzky,Viktor Remeli |
発行日 | 2025-04-11 12:13:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google