要約
安全かつ丁寧にサービスを提供するサービスロボットは、特にツアーガイドロボット(TGR)の場合、周囲の人々をしっかりと追跡する必要があります。
ただし、既存のマルチオブジェクトトラッキング(MOT)またはマルチパーソントラッキング(MPT)の方法は、次の理由からTGRには適用できません。1。関連する大規模なデータセットがない。
2.トラッカーを評価するための適切なメトリックが不足しています。
この作業では、TGRの視覚的知覚タスクを対象とし、TGRDBデータセットを提示します。これは、約5.6時間の注釈付きビデオと450を超える長期軌道を含む新しい大規模な複数人追跡データセットです。
さらに、データセットを使用してトラッカーを評価するためのより適切なメトリックを提案します。
仕事の一環として、頭の肩と全身からの情報を取り入れ、最先端のパフォーマンスを実現する新しいMPTシステムであるTGRMPTを紹介します。
コードとデータセットをhttps://github.com/wenwenzju/TGRMPTでリリースしました。
要約(オリジナル)
A service robot serving safely and politely needs to track the surrounding people robustly, especially for Tour-Guide Robot (TGR). However, existing multi-object tracking (MOT) or multi-person tracking (MPT) methods are not applicable to TGR for the following reasons: 1. lacking relevant large-scale datasets; 2. lacking applicable metrics to evaluate trackers. In this work, we target the visual perceptual tasks for TGR and present the TGRDB dataset, a novel large-scale multi-person tracking dataset containing roughly 5.6 hours of annotated videos and over 450 long-term trajectories. Besides, we propose a more applicable metric to evaluate trackers using our dataset. As part of our work, we present TGRMPT, a novel MPT system that incorporates information from head shoulder and whole body, and achieves state-of-the-art performance. We have released our codes and dataset in https://github.com/wenwenzju/TGRMPT.
arxiv情報
著者 | Wen Wang,Shunda Hu,Shiqiang Zhu,Wei Song,Zheyuan Lin,Tianlei Jin,Zonghao Mu,Yuanhai Zhou |
発行日 | 2022-07-08 07:32:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google