Edge-GPU Based Face Tracking for Face Detection and Recognition Acceleration

要約

リアルタイムで正確な顔の検出と公共の場所での認識に特化した費用対効果の高いマシンビジョンシステムは、多くの最新のアプリケーションにとって非常に重要です。
ただし、特殊なエッジまたはクラウドAIハードウェアアクセラレータを使用して高性能に到達できるにもかかわらず、スループットと消費電力の改善の余地はまだあります。
このペーパーは、最新のエッジGPUの1つ、つまりNvidia Jetson AGX Orinの1つで顔の検出と認識システムを最適化する組み合わせたハードウェアソフトウェアアプローチを提案することを目的としています。
まず、すべてのハードウェアエンジンの同時使用を活用して、処理時間を改善します。
これにより、これらのタスクが主に自動的に、およびCPUまたはGPUコアに自動的かつ排他的に割り当てられた以前の作品よりも改善が提供されます。
さらに、このペーパーでは、フェイストラッカーモジュールを統合して、すべてのフレームのフェイス認識アルゴリズムを冗長に実行しないようにしますが、シーンに新しいフェイスが表示された場合にのみゆったりとしています。
拡張実験の結果は、Orin GPUで利用可能なすべてのハードウェアエンジンの同時使用とパイプラインへのトラッカーの統合により、1920 X 1080の入力サイズフレームが平均6つの顔/フレームを含む290 fps(1秒あたりのフレーム)の印象的なスループットが得られることを示唆しています。
さらに、CPU/GPUエンジンのみでタスクを実行し、トラッカーをOrin GPU \ ’92Sパイプラインに統合することなく、約800 MWの消費電力の大幅な節約が達成されました。
このハードウェアコードシグインアプローチは、エッジで高性能マシンビジョンシステムを設計する方法を開くことができます。これは、同じシーンに近くのいくつかのカメラが通常展開される公共の場所でのビデオ監視で非常に必要です。

要約(オリジナル)

Cost-effective machine vision systems dedicated to real-time and accurate face detection and recognition in public places are crucial for many modern applications. However, despite their high performance, which could be reached using specialized edge or cloud AI hardware accelerators, there is still room for improvement in throughput and power consumption. This paper aims to suggest a combined hardware-software approach that optimizes face detection and recognition systems on one of the latest edge GPUs, namely NVIDIA Jetson AGX Orin. First, it leverages the simultaneous usage of all its hardware engines to improve processing time. This offers an improvement over previous works where these tasks were mainly allocated automatically and exclusively to the CPU or, to a higher extent, to the GPU core. Additionally, the paper suggests integrating a face tracker module to avoid redundantly running the face recognition algorithm for every frame but only when a new face appears in the scene. The results of extended experiments suggest that simultaneous usage of all the hardware engines that are available in the Orin GPU and tracker integration into the pipeline yield an impressive throughput of 290 FPS (frames per second) on 1920 x 1080 input size frames containing in average of 6 faces/frame. Additionally, a substantial saving of power consumption of around 800 mW was achieved when compared to running the task on the CPU/GPU engines only and without integrating a tracker into the Orin GPU\’92s pipeline. This hardware-codesign approach can pave the way to design high-performance machine vision systems at the edge, critically needed in video monitoring in public places where several nearby cameras are usually deployed for a same scene.

arxiv情報

著者 Asma Baobaid,Mahmoud Meribout
発行日 2025-05-07 15:57:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.CV, cs.LG, eess.IV パーマリンク