Post-Train Adaptive MobileNet for Fast Anti-Spoofing

要約

多くのアプリケーションでは、高精度のニューラルネットワークと、低遅延およびユーザーデータのプライバシー保証が必要です。
顔のなりすまし防止は、そのようなタスクの1つです。
ただし、複数のモデルのトレーニングには時間がかかる一方で、単一のモデルではさまざまなデバイスパフォーマンスカテゴリに対して最良の結果が得られない場合があります。
この作業では、ポストトレインアダプティブ(PTA)ブロックを紹介します。
このようなブロックは構造が単純で、MobileNetV2InvertedResidualブロックのドロップイン代替品を提供します。
PTAブロックには、計算コストが異なる複数のブランチがあります。
実行するブランチは、オンデマンドおよび実行時に選択できます。
したがって、複数のデバイス層に対して異なる推論時間と構成機能を提供します。
重要なのは、モデルは一度トレーニングされるだけで、モバイルデバイス上で直接でも、トレーニング後に簡単に再構成できることです。
さらに、提案されたアプローチは、CelebA-Spoofデータセットでテストされた元のMobileNetV2と比較して、大幅に優れた全体的なパフォーマンスを示しています。
トレーニング時にさまざまなPTAブロック構成がサンプリングされるため、モデルのトレーニングに必要な全体的な実時間も短縮されます。
スプーフィング防止問題の計算結果を示しますが、PTAブロックを備えたMobileNetV2は、畳み込みニューラルネットワークで解決可能なあらゆる問題に適用できるため、提示された結果は実質的に重要です。

要約(オリジナル)

Many applications require high accuracy of neural networks as well as low latency and user data privacy guaranty. Face anti-spoofing is one of such tasks. However, a single model might not give the best results for different device performance categories, while training multiple models is time consuming. In this work we present Post-Train Adaptive (PTA) block. Such a block is simple in structure and offers a drop-in replacement for the MobileNetV2 Inverted Residual block. The PTA block has multiple branches with different computation costs. The branch to execute can be selected on-demand and at runtime; thus, offering different inference times and configuration capability for multiple device tiers. Crucially, the model is trained once and can be easily reconfigured after training, even directly on a mobile device. In addition, the proposed approach shows substantially better overall performance in comparison to the original MobileNetV2 as tested on CelebA-Spoof dataset. Different PTA block configurations are sampled at training time, which also decreases overall wall-clock time needed to train the model. While we present computational results for the anti-spoofing problem, the MobileNetV2 with PTA blocks is applicable to any problem solvable with convolutional neural networks, which makes the results presented practically significant.

arxiv情報

著者 Kostiantyn Khabarlak
発行日 2022-07-27 09:47:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク