Enabling Cross-Camera Collaboration for Video Analytics on Distributed Smart Cameras

要約

カメラを重ねることで、シーンをさまざまな角度から見る刺激的な機会が得られ、より高度で包括的かつ堅牢な分析が可能になります。
ただし、マルチカメラ ストリーム用の既存のビジュアル分析システムは、(i) カメラごとの処理と集約、および (ii) ワークロードに依存しない集中処理アーキテクチャにほとんど制限されています。
このペーパーでは、スマート カメラでのクロスカメラ連携を備えた分散ビデオ分析システムである Argus について紹介します。
私たちは、マルチカメラ、マルチターゲット追跡をマルチカメラビデオ分析の主なタスクとして特定し、重複する視野におけるオブジェクトごとの時空間関連を活用することで、冗長で処理量の多い識別タスクを回避する新しい技術を開発します。
複数のカメラ。
さらに、(i) カメラとオブジェクトの検査シーケンスを動的に順序付けし、(ii) ネットワーク伝送とネットワーク伝送を考慮してスマート カメラ全体にワークロードを柔軟に分散することにより、クラウド サポートなしで分散カメラ全体でこれらの操作を低遅延で実行するための一連の技術を開発します。
異種の計算能力。
2 台の Nvidia Jetson デバイスを使用した 3 つの現実世界のオーバーラップするカメラ データセットの評価では、Argus が物体識別の数とエンドツーエンドの遅延を最大 7.13 倍と 2.19 倍 (現状と比較して 4.86 倍と 1.60 倍) 削減することが示されています。
-the-art) を実現しながら、同等のトラッキング品質を実現します。

要約(オリジナル)

Overlapping cameras offer exciting opportunities to view a scene from different angles, allowing for more advanced, comprehensive and robust analysis. However, existing visual analytics systems for multi-camera streams are mostly limited to (i) per-camera processing and aggregation and (ii) workload-agnostic centralized processing architectures. In this paper, we present Argus, a distributed video analytics system with cross-camera collaboration on smart cameras. We identify multi-camera, multi-target tracking as the primary task of multi-camera video analytics and develop a novel technique that avoids redundant, processing-heavy identification tasks by leveraging object-wise spatio-temporal association in the overlapping fields of view across multiple cameras. We further develop a set of techniques to perform these operations across distributed cameras without cloud support at low latency by (i) dynamically ordering the camera and object inspection sequence and (ii) flexibly distributing the workload across smart cameras, taking into account network transmission and heterogeneous computational capacities. Evaluation of three real-world overlapping camera datasets with two Nvidia Jetson devices shows that Argus reduces the number of object identifications and end-to-end latency by up to 7.13x and 2.19x (4.86x and 1.60x compared to the state-of-the-art), while achieving comparable tracking quality.

arxiv情報

著者 Chulhong Min,Juheon Yi,Utku Gunay Acer,Fahim Kawsar
発行日 2024-01-25 12:27:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.DC パーマリンク