Application of image-to-image translation in improving pedestrian detection

要約

低照度下では、有効なターゲット領域がないため、歩行者の認識や画像間の変換など、いくつかの視覚機能を実行することが困難となります。このような状況において、赤外線画像と可視画像の併用による高品質な情報の蓄積により、低照度下でも歩行者を検出することが可能となります。本研究では、低照度視覚のための可視-赤外線画像ペアを含むLLVIPデータセットに、pix2pixGANやYOLOv7などの高度なディープラーニングモデルを使用する予定である。このデータセットには33672枚の画像が含まれており、ほとんどの画像は暗いシーンで撮影され、時間と位置がしっかりと同期しています。

要約(オリジナル)

The lack of effective target regions makes it difficult to perform several visual functions in low intensity light, including pedestrian recognition, and image-to-image translation. In this situation, with the accumulation of high-quality information by the combined use of infrared and visible images it is possible to detect pedestrians even in low light. In this study we are going to use advanced deep learning models like pix2pixGAN and YOLOv7 on LLVIP dataset, containing visible-infrared image pairs for low light vision. This dataset contains 33672 images and most of the images were captured in dark scenes, tightly synchronized with time and location.

arxiv情報

著者 Devarsh Patel,Sarthak Patel,Megh Patel
発行日 2022-09-08 08:07:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク