要約
監視ビデオと画像は、交通分析から犯罪検出に至るまで、幅広いアプリケーションに使用されます。
外部カメラのキャリブレーション データは、ほとんどの分析アプリケーションにとって重要です。
ただし、セキュリティ カメラは環境条件やカメラの小さな動きの影響を受けやすいため、これらのさまざまな条件を考慮できる自動再調整方法が必要になります。
このペーパーでは、カメラ設定に関する事前知識を必要としない、辞書ベースのアプローチを活用した自動カメラ キャリブレーション プロセスを紹介します。
この方法は、空間変換ネットワーク (STN) のカスタム実装と新しいトポロジ損失関数で構成されます。
実験の結果、提案された方法により IoU メトリクスが最大 12% (重量比) 改善されることが明らかになりました。
5 つの合成データセットと 2014 年ワールドカップ データセットにわたる最先端のモデル。
要約(オリジナル)
Surveillance videos and images are used for a broad set of applications, ranging from traffic analysis to crime detection. Extrinsic camera calibration data is important for most analysis applications. However, security cameras are susceptible to environmental conditions and small camera movements, resulting in a need for an automated re-calibration method that can account for these varying conditions. In this paper, we present an automated camera-calibration process leveraging a dictionary-based approach that does not require prior knowledge on any camera settings. The method consists of a custom implementation of a Spatial Transformer Network (STN) and a novel topological loss function. Experiments reveal that the proposed method improves the IoU metric by up to 12% w.r.t. a state-of-the-art model across five synthetic datasets and the World Cup 2014 dataset.
arxiv情報
著者 | Giacomo D’Amicantonio,Egor Bondarau,Peter H. N. De With |
発行日 | 2023-08-02 11:31:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google