Gallery Sampling for Robust and Fast Face Identification

要約

ディープラーニングの手法は、顔認識において輝かしい成果を上げている。性能を向上させるための重要なタスクの1つは、できるだけ多くの画像を収集し、ラベル付けすることです。しかし、大規模な画像データに対するラベル付けや品質チェックは困難な作業であり、大規模なデータを処理する上でミスは避けられない。従来の研究では、この問題を学習領域のみで対処してきたが、顔識別のためのギャラリーデータでミスが発生した場合、非常に深刻な問題になる可能性がある。我々は、誤ったラベル付け、低品質、情報量の少ない画像などの異常値に強く、検索時間を短縮するギャラリーデータのサンプリング方法を提案する。提案するサンプリング・バイ・プルニング法とサンプリング・バイ・ジェネレーティング法は、5.4Mの有名人のウェブ画像データセットにおいて、顔識別性能を大幅に向上させました。FPIR=0.01におけるFNIRにおいて、提案手法は0.0975を達成したのに対し、従来手法は0.3891であった。また、個々のギャラリーの平均特徴ベクトル数は115.9から17.1に減少し、より高速な検索を実現することができた。また、公開データセットでの実験も行い、CASIA-WebFaceとMS1MV2において、FPIR=0.01でのFNIRは、本手法が0.1314、0.0668、対流式は0.5446、0.1327となった。

要約(オリジナル)

Deep learning methods have been achieved brilliant results in face recognition. One of the important tasks to improve the performance is to collect and label images as many as possible. However, labeling identities and checking qualities of large image data are difficult task and mistakes cannot be avoided in processing large data. Previous works have been trying to deal with the problem only in training domain, however it can cause much serious problem if the mistakes are in gallery data of face identification. We proposed gallery data sampling methods which are robust to outliers including wrong labeled, low quality, and less-informative images and reduce searching time. The proposed sampling-by-pruning and sampling-by-generating methods significantly improved face identification performance on our 5.4M web image dataset of celebrities. The proposed method achieved 0.0975 in terms of FNIR at FPIR=0.01, while conventional method showed 0.3891. The average number of feature vectors for each individual gallery was reduced to 17.1 from 115.9 and it can provide much faster search. We also made experiments on public datasets and our method achieved 0.1314 and 0.0668 FNIRs at FPIR=0.01 on the CASIA-WebFace and MS1MV2, while the convectional method did 0.5446, and 0.1327, respectively.

arxiv情報

著者 Myung-cheol Roh,Pyoung-gang Lim,Jongju Shin
発行日 2023-05-12 14:10:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク