要約
意図の難読化は、敵対的な状況における一般的な戦術であり、攻撃者がターゲット システムを操作し、責任を回避することを可能にします。
驚くべきことに、機械学習システムに対する敵対的攻撃に実装されることはほとんどありません。
私たちは、意図難読化を使用してオブジェクト検出器の敵対的な例を生成することを最初に提案しました。重複しない別のオブジェクトを混乱させてターゲット オブジェクトを妨害することで、攻撃者は意図したターゲットを隠します。
私たちは、YOLOv3、SSD、RetinaNet、Faster R-CNN、Cascade R-CNN の 5 つの著名な検出器で、標的型攻撃と非標的型攻撃の両方を使用したランダム化実験を実施し、すべてのモデルと攻撃で成功を収めています。
私たちは、ターゲット オブジェクトの信頼性や摂動オブジェクトのサイズなど、意図を難読化する攻撃を特徴付ける成功要因を分析します。
次に、攻撃者がこれらの成功要因を悪用して、すべてのモデルと攻撃の成功率を高めることができることを示します。
最後に、主な要点と法的影響について説明します。
要約(オリジナル)
Intent obfuscation is a common tactic in adversarial situations, enabling the attacker to both manipulate the target system and avoid culpability. Surprisingly, it has rarely been implemented in adversarial attacks on machine learning systems. We are the first to propose using intent obfuscation to generate adversarial examples for object detectors: by perturbing another non-overlapping object to disrupt the target object, the attacker hides their intended target. We conduct a randomized experiment on 5 prominent detectors — YOLOv3, SSD, RetinaNet, Faster R-CNN, and Cascade R-CNN — using both targeted and untargeted attacks and achieve success on all models and attacks. We analyze the success factors characterizing intent obfuscating attacks, including target object confidence and perturb object sizes. We then demonstrate that the attacker can exploit these success factors to increase success rates for all models and attacks. Finally, we discuss main takeaways and legal repercussions.
arxiv情報
著者 | Zhaobin Li,Patrick Shafto |
発行日 | 2024-08-29 13:29:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google