Imperceptible Physical Attack against Face Recognition Systems via LED Illumination Modulation

要約

顔認識は私たちの日常生活において重要な役割を果たし始めていますが、データ駆動型の顔認識ビジョン システムは敵対的な攻撃に対して脆弱であることに注意する必要があります。
しかし、現在の 2 つのカテゴリの敵対的攻撃、つまりデジタル攻撃と物理的攻撃には両方とも欠点があり、前者は非現実的であり、後者は顕著で、大量の計算量が必要で実行不可能です。
この問題に対処するために、LED 照明変調に基づいた、実用的で実行可能で目立たず、低計算量の敵対的攻撃を提案します。
システムを欺くために、提案された攻撃は、シーン LED 照明の高速強度変調を通じて人間の目に知覚できない輝度変化を生成し、顔認識システムの CMOS 画像センサーのローリング シャッター効果を使用して、キャプチャされた顔画像に輝度情報の摂動を埋め込みます。
要約すると、顔検出のためのサービス拒否 (DoS) 攻撃と顔検証のための回避攻撃を紹介します。
また、よく知られている顔検出モデル Dlib、MTCNN、RetinaFace や顔検証モデル Dlib、FaceNet、ArcFace に対する有効性も評価しています。広範な実験により、顔検出モデルに対する DoS 攻撃の成功率が 97.67% に達することが示されています。
それぞれ 100%、100% となり、すべての顔認証モデルに対する回避攻撃の成功率は 100% に達します。

要約(オリジナル)

Although face recognition starts to play an important role in our daily life, we need to pay attention that data-driven face recognition vision systems are vulnerable to adversarial attacks. However, the current two categories of adversarial attacks, namely digital attacks and physical attacks both have drawbacks, with the former ones impractical and the latter one conspicuous, high-computational and inexecutable. To address the issues, we propose a practical, executable, inconspicuous and low computational adversarial attack based on LED illumination modulation. To fool the systems, the proposed attack generates imperceptible luminance changes to human eyes through fast intensity modulation of scene LED illumination and uses the rolling shutter effect of CMOS image sensors in face recognition systems to implant luminance information perturbation to the captured face images. In summary,we present a denial-of-service (DoS) attack for face detection and a dodging attack for face verification. We also evaluate their effectiveness against well-known face detection models, Dlib, MTCNN and RetinaFace , and face verification models, Dlib, FaceNet,and ArcFace.The extensive experiments show that the success rates of DoS attacks against face detection models reach 97.67%, 100%, and 100%, respectively, and the success rates of dodging attacks against all face verification models reach 100%.

arxiv情報

著者 Junbin Fang,Canjian Jiang,You Jiang,Puxi Lin,Zhaojie Chen,Yujing Sun,Siu-Ming Yiu,Zoe L. Jiang
発行日 2023-07-25 07:20:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク