要約
既存の参照理解タスクは、単一のテキスト参照オブジェクトの検出を含む傾向がある。本論文では、RMOT(Refering Multi-Object Tracking)と呼ばれる、新しい一般的な参照理解タスクを提案する。このタスクの核となるアイデアは、言語表現を意味的手がかりとして採用し、多物体追跡の予測を導くことである。我々の知る限りでは、動画中の任意の数の参照オブジェクトの予測を達成した最初の研究である。RMOTを推し進めるために、Refer-KITTIと名付けられたKITTIに基づくスケーラブルな表現による1つのベンチマークを構築する。具体的には、18本の動画に818個の表現を提供し、動画中の各表現には平均10.7個のオブジェクトがアノテーションされる。さらに、この新しいタスクにオンライン方式で取り組むために、変換器ベースのアーキテクチャTransRMOTを開発し、印象的な検出性能を達成し、他のカウンターパートを凌駕しています。
要約(オリジナル)
Existing referring understanding tasks tend to involve the detection of a single text-referred object. In this paper, we propose a new and general referring understanding task, termed referring multi-object tracking (RMOT). Its core idea is to employ a language expression as a semantic cue to guide the prediction of multi-object tracking. To the best of our knowledge, it is the first work to achieve an arbitrary number of referent object predictions in videos. To push forward RMOT, we construct one benchmark with scalable expressions based on KITTI, named Refer-KITTI. Specifically, it provides 18 videos with 818 expressions, and each expression in a video is annotated with an average of 10.7 objects. Further, we develop a transformer-based architecture TransRMOT to tackle the new task in an online manner, which achieves impressive detection performance and outperforms other counterparts.
arxiv情報
著者 | Dongming Wu,Wencheng Han,Tiancai Wang,Xingping Dong,Xiangyu Zhang,Jianbing Shen |
発行日 | 2023-03-06 18:50:06+00:00 |
arxivサイト | arxiv_id(pdf) |