FRIDA: Fisheye Re-Identification Dataset with Annotations

要約

サイドマウント・レクチリニアレンズカメラからの人物再識別(PRID)は、よく研究された問題である。一方、頭上の魚眼カメラからのPRIDは新しく、主に適切な画像データセットがないために、ほとんど研究されていない。この空白を埋めるために、我々は、広い屋内空間の天井に取り付けられた3台の時間同期魚眼カメラによって撮影された人物の240k以上のバウンディングボックス注釈を持つ「注釈付き魚眼再同定データセット」(FRIDA)を紹介します。視野の重複があるため、この場合のPRIDは典型的なPRID問題とは異なり、その詳細について議論した。また、FRIDA上で10種類の最新PRIDアルゴリズムの性能を評価する。その結果、6つのCNNベースのアルゴリズムにおいて、FRIDAでの学習により、一般的な直線カメラのPRIDデータセットでの学習と比較して、mAPで最大11.64%ポイント性能が向上することが示された。

要約(オリジナル)

Person re-identification (PRID) from side-mounted rectilinear-lens cameras is a well-studied problem. On the other hand, PRID from overhead fisheye cameras is new and largely unstudied, primarily due to the lack of suitable image datasets. To fill this void, we introduce the ‘Fisheye Re-IDentification Dataset with Annotations’ (FRIDA), with 240k+ bounding-box annotations of people, captured by 3 time-synchronized, ceiling-mounted fisheye cameras in a large indoor space. Due to a field-of-view overlap, PRID in this case differs from a typical PRID problem, which we discuss in depth. We also evaluate the performance of 10 state-of-the-art PRID algorithms on FRIDA. We show that for 6 CNN-based algorithms, training on FRIDA boosts the performance by up to 11.64% points in mAP compared to training on a common rectilinear-camera PRID dataset.

arxiv情報

著者 Mertcan Cokbas,John Bolognino,Janusz Konrad,Prakash Ishwar
発行日 2022-10-04 13:08:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク