IdentiFace : A VGG Based Multimodal Facial Biometric System

要約

顔生体認証システムの開発は、コンピュータ ビジョン分野の発展に大きく貢献しました。
今日では、複数の生体認証特性を効率的かつ有意義な方法で組み合わせるマルチモーダル システムを開発する必要が常にあります。
この論文では、顔認識の中核と性別、顔の形、感情などの最も重要なソフト生体認証特性を組み合わせたマルチモーダル顔生体認証システムである「IdentiFace」を紹介します。
また、VGG-16 にインスピレーションを得たアーキテクチャのみを使用し、さまざまなサブシステムに若干の変更を加えたシステムの開発にも重点を置きました。
この統合により、モダリティ全体の統合がより簡単になります。
これにより、タスク間で学習された特徴の解釈が容易になり、顔のモダリティと潜在的なつながり全体にわたる意思決定プロセスについての適切な指標が得られます。
認識問題については、FERET データベースから収集したデータを使用して、クラス内変動が大きい 5 つのクラスに対して 99.2% のテスト精度を取得しました[1]。
性別認識問題では、当社のデータセットで 99.4%、公開データセット [2] で 95.15% を達成しました。
また、有名人の顔の形状データセットを使用した顔の形状の問題でも、88.03% のテスト精度を達成することができました[3]。
最後に、感情タスクで 66.13% というまともなテスト精度を達成しました。これは、FER2013 データセットに関する関連研究と比較して、非常に許容できる精度であると考えられます[4]。

要約(オリジナル)

The development of facial biometric systems has contributed greatly to the development of the computer vision field. Nowadays, there’s always a need to develop a multimodal system that combines multiple biometric traits in an efficient, meaningful way. In this paper, we introduce ‘IdentiFace’ which is a multimodal facial biometric system that combines the core of facial recognition with some of the most important soft biometric traits such as gender, face shape, and emotion. We also focused on developing the system using only VGG-16 inspired architecture with minor changes across different subsystems. This unification allows for simpler integration across modalities. It makes it easier to interpret the learned features between the tasks which gives a good indication about the decision-making process across the facial modalities and potential connection. For the recognition problem, we acquired a 99.2% test accuracy for five classes with high intra-class variations using data collected from the FERET database[1]. We achieved 99.4% on our dataset and 95.15% on the public dataset[2] in the gender recognition problem. We were also able to achieve a testing accuracy of 88.03% in the face-shape problem using the celebrity face-shape dataset[3]. Finally, we achieved a decent testing accuracy of 66.13% in the emotion task which is considered a very acceptable accuracy compared to related work on the FER2013 dataset[4].

arxiv情報

著者 Mahmoud Rabea,Hanya Ahmed,Sohaila Mahmoud,Nourhan Sayed
発行日 2024-01-10 12:13:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク