要約
ディープフェイク – 操作または偽造オーディオおよびビデオメディア – は、個人、組織、社会全体に重大なセキュリティリスクをもたらします。
これらの課題に対処するために、機械学習ベースの分類器が一般的に採用され、ディープファークの内容が検出されます。
この論文では、体系的な浸透テスト方法を通じて、このような分類器の堅牢性を評価し、それを深く紹介します。
私たちのアプローチは、ターゲットのディープフェイク検出モデルの事前知識またはアクセスなしで動作します。
代わりに、モデルの脆弱性を評価するために、攻撃と呼ばれる慎重に選択された信号処理の変更のセットを活用します。
Deepenを使用して、実世界の生産システムと公開されている学術モデルのチェックポイントの両方を分析し、すべてのテストされたシステムが弱点を示し、タイムストレッチングやエコーの追加などの簡単な操作によって確実に欺くことができることを示しています。
さらに、我々の調査結果は、特定の攻撃の知識を持つ検出システムを再訓練することでいくつかの攻撃を軽減できるが、他の攻撃は持続的に効果的なままであることを明らかにしています。
関連するすべてのコードをリリースします。
要約(オリジナル)
Deepfakes – manipulated or forged audio and video media – pose significant security risks to individuals, organizations, and society at large. To address these challenges, machine learning-based classifiers are commonly employed to detect deepfake content. In this paper, we assess the robustness of such classifiers through a systematic penetration testing methodology, which we introduce as DeePen. Our approach operates without prior knowledge of or access to the target deepfake detection models. Instead, it leverages a set of carefully selected signal processing modifications – referred to as attacks – to evaluate model vulnerabilities. Using DeePen, we analyze both real-world production systems and publicly available academic model checkpoints, demonstrating that all tested systems exhibit weaknesses and can be reliably deceived by simple manipulations such as time-stretching or echo addition. Furthermore, our findings reveal that while some attacks can be mitigated by retraining detection systems with knowledge of the specific attack, others remain persistently effective. We release all associated code.
arxiv情報
著者 | Nicolas Müller,Piotr Kawa,Adriana Stan,Thien-Phuc Doan,Souhwan Jung,Wei Herng Choong,Philip Sperl,Konstantin Böttinger |
発行日 | 2025-03-05 14:58:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google