要約
顔ランドマーク検出 (FLD) では、精度と効率のバランスを達成することが重要な課題です。
このペーパーでは、従来の FLD 手法の制限に対処するために設計された高精度のエンコード/デコード フレームワークである Parallel Optimal Position Search (POPoS) について紹介します。
POPoS は 3 つの主要な機能を採用しています。 (1) 擬似距離マルチラテレーションを利用してヒートマップ エラーを修正し、ランドマーク位置特定の精度を向上させます。
複数のアンカー ポイントを統合することで、個々のヒートマップの不正確さの影響が軽減され、全体的な位置決めが堅牢になります。
(2) 選択されたアンカー ポイントの擬似距離精度を向上させるために、マルチラテレーション アンカー損失と呼ばれる新しい損失関数が提案されます。
この損失関数により、距離マップの精度が向上し、局所最適のリスクが軽減され、最適なソリューションが保証されます。
(3) シングルステップ並列計算アルゴリズムが導入され、計算効率が向上し、処理時間が短縮されます。
5 つのベンチマーク データセットにわたる広範な評価により、POPoS が既存の手法より一貫して優れたパフォーマンスを示し、特に計算オーバーヘッドを最小限に抑えた低解像度のヒートマップ シナリオで優れていることが実証されました。
これらの利点により、POPoS は FLD 用の非常に効率的かつ正確なツールとなり、現実世界のシナリオに幅広く適用できます。
要約(オリジナル)
Achieving a balance between accuracy and efficiency is a critical challenge in facial landmark detection (FLD). This paper introduces Parallel Optimal Position Search (POPoS), a high-precision encoding-decoding framework designed to address the limitations of traditional FLD methods. POPoS employs three key contributions: (1) Pseudo-range multilateration is utilized to correct heatmap errors, improving landmark localization accuracy. By integrating multiple anchor points, it reduces the impact of individual heatmap inaccuracies, leading to robust overall positioning. (2) To enhance the pseudo-range accuracy of selected anchor points, a new loss function, named multilateration anchor loss, is proposed. This loss function enhances the accuracy of the distance map, mitigates the risk of local optima, and ensures optimal solutions. (3) A single-step parallel computation algorithm is introduced, boosting computational efficiency and reducing processing time. Extensive evaluations across five benchmark datasets demonstrate that POPoS consistently outperforms existing methods, particularly excelling in low-resolution heatmaps scenarios with minimal computational overhead. These advantages make POPoS a highly efficient and accurate tool for FLD, with broad applicability in real-world scenarios.
arxiv情報
著者 | Chong-Yang Xiang,Jun-Yan He,Zhi-Qi Cheng,Xiao Wu,Xian-Sheng Hua |
発行日 | 2024-12-20 18:03:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google