要約
効率的なニューラル モデル $f$ を使用して顔認証を実行する問題を研究します。
$f$ の効率は、最近傍検索を二値問題に埋め込むことで顔検証問題を単純化することに由来しています。
各ユーザーは独自のニューラル ネットワーク $f$ を持っています。
トレーニングセット内の異なる個人間で情報を共有できるようにするために、$f$ を直接トレーニングせず、代わりにハイパーネットワーク $h$ を使用してモデルの重みを生成します。
これにより、エッジ デバイスに展開できる顔識別用のコンパクトなパーソナライズされたモデルが生成されます。
このメソッドの成功の鍵は、ハード ネガを生成し、トレーニング目標を慎重にスケジュールする新しい方法です。
私たちのモデルでは、23,000 のパラメータと 5M の浮動小数点演算 (FLOPS) のみを必要とする実質的に小さい $f$ が得られます。
私たちは 6 つの顔検証データセットを使用して、パラメーターの数と計算負荷が大幅に削減され、私たちの方法が最先端のモデルと同等かそれ以上であることを実証しました。
さらに、当社では広範なアブレーション研究を実施して、当社の方法における各要素の重要性を実証しています。
要約(オリジナル)
We study the problem of performing face verification with an efficient neural model $f$. The efficiency of $f$ stems from simplifying the face verification problem from an embedding nearest neighbor search into a binary problem; each user has its own neural network $f$. To allow information sharing between different individuals in the training set, we do not train $f$ directly but instead generate the model weights using a hypernetwork $h$. This leads to the generation of a compact personalized model for face identification that can be deployed on edge devices. Key to the method’s success is a novel way of generating hard negatives and carefully scheduling the training objectives. Our model leads to a substantially small $f$ requiring only 23k parameters and 5M floating point operations (FLOPS). We use six face verification datasets to demonstrate that our method is on par or better than state-of-the-art models, with a significantly reduced number of parameters and computational burden. Furthermore, we perform an extensive ablation study to demonstrate the importance of each element in our method.
arxiv情報
著者 | Amit Rozner,Barak Battash,Ofir Lindenbaum,Lior Wolf |
発行日 | 2023-12-20 18:08:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google