Post-Train Adaptive MobileNet for Fast Anti-Spoofing

要約

多くのアプリケーションでは、ニューラルネットワークの高い精度に加え、低レイテンシーとユーザーデータのプライバシー保証が要求されます。顔認証もそのようなタスクの一つです。しかし、デバイスの性能カテゴリが異なると単一のモデルでは最適な結果が得られない場合があり、また複数のモデルを学習させるのは時間がかかるという問題があります。本研究では、Post-Train Adaptive (PTA)ブロックを提案します。このブロックはシンプルな構造で、MobileNetV2のInverted Residualブロックの置き換えを可能にします。PTAブロックは、異なる計算コストを持つ複数のブランチを持っています。実行するブランチは、オンデマンドで実行時に選択することができます。また、モデルの学習は一度だけで、学習後はモバイルデバイス上でも容易に再設定が可能です。さらに、CelebA-Spoofデータセットでテストした結果、提案手法はオリジナルのMobileNetV2と比較して、全体的に大幅に優れた性能を示しています。また、学習時に異なるPTAブロック構成をサンプリングすることで、モデルの学習に必要な全体的なウォールクロック時間を短縮することができます。本発表では、スプーフィング対策問題についての計算結果を示しますが、PTAブロックを用いたMobileNetV2は、畳み込みニューラルネットワークで解決可能なあらゆる問題に適用可能であり、これにより、発表した結果は実用上重要な意味を持つことになります。

要約(オリジナル)

Many applications require high accuracy of neural networks as well as low latency and user data privacy guaranty. Face anti-spoofing is one of such tasks. However, a single model might not give the best results for different device performance categories, while training multiple models is time consuming. In this work we present Post-Train Adaptive (PTA) block. Such a block is simple in structure and offers a drop-in replacement for the MobileNetV2 Inverted Residual block. The PTA block has multiple branches with different computation costs. The branch to execute can be selected on-demand and at runtime; thus, offering different inference times and configuration capability for multiple device tiers. Crucially, the model is trained once and can be easily reconfigured after training, even directly on a mobile device. In addition, the proposed approach shows substantially better overall performance in comparison to the original MobileNetV2 as tested on CelebA-Spoof dataset. Different PTA block configurations are sampled at training time, which also decreases overall wall-clock time needed to train the model. While we present computational results for the anti-spoofing problem, the MobileNetV2 with PTA blocks is applicable to any problem solvable with convolutional neural networks, which makes the results presented practically significant.

arxiv情報

著者 Kostiantyn Khabarlak
発行日 2022-08-09 09:42:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク