Improving Video Deepfake Detection: A DCT-Based Approach with Patch-Level Analysis

要約

デジタルビデオ内のディープフェイクを検出するための新しいアルゴリズムが紹介されています。
I フレームは、文献に記載されているアプローチよりも高速な計算と分析を提供するために抽出されました。
個々のビデオ フレーム内の識別領域を特定するために、フレーム全体、背景、顔、目、鼻、口、および顔のフレームが個別に分析されました。
離散コサイン変換 (DCT) から、AC 係数からベータ成分が抽出され、標準分類器への入力として使用されました。
実験結果は、目と口の領域が最も識別力があり、分析対象のビデオの性質を判断できることを示しています。

要約(オリジナル)

A new algorithm for the detection of deepfakes in digital videos is presented. The I-frames were extracted in order to provide faster computation and analysis than approaches described in the literature. To identify the discriminating regions within individual video frames, the entire frame, background, face, eyes, nose, mouth, and face frame were analyzed separately. From the Discrete Cosine Transform (DCT), the Beta components were extracted from the AC coefficients and used as input to standard classifiers. Experimental results show that the eye and mouth regions are those most discriminative and able to determine the nature of the video under analysis.

arxiv情報

著者 Luca Guarnera,Salvatore Manganello,Sebastiano Battiato
発行日 2024-01-09 08:57:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク