Towards Grand Unification of Object Tracking

要約

同じモデルパラメータを使用して、単一のネットワークで4つの追跡問題(SOT、MOT、VOS、MOTS)を同時に解決できるUnicornと呼ばれる統一された方法を紹介します。
オブジェクト追跡問題自体の定義が断片化されているため、ほとんどの既存のトラッカーは、タスクの1つまたは一部に対処し、特定のタスクの特性に過度に特化するように開発されています。
対照的に、Unicornは統一されたソリューションを提供し、すべての追跡タスクで同じ入力、バックボーン、埋め込み、およびヘッドを採用します。
初めて、追跡ネットワークアーキテクチャと学習パラダイムの大幅な統合を実現しました。
Unicornは、LaSOT、TrackingNet、MOT17、BDD100K、DAVIS16-17、MOTS20、およびBDD100K MOTSを含む8つの追跡データセットで、タスク固有の対応するものと同等またはそれ以上のパフォーマンスを発揮します。
ユニコーンは、一般的なビジョンモデルに向けた確かな一歩となると信じています。
コードはhttps://github.com/MasterBin-IIAU/Unicornで入手できます。

要約(オリジナル)

We present a unified method, termed Unicorn, that can simultaneously solve four tracking problems (SOT, MOT, VOS, MOTS) with a single network using the same model parameters. Due to the fragmented definitions of the object tracking problem itself, most existing trackers are developed to address a single or part of tasks and overspecialize on the characteristics of specific tasks. By contrast, Unicorn provides a unified solution, adopting the same input, backbone, embedding, and head across all tracking tasks. For the first time, we accomplish the great unification of the tracking network architecture and learning paradigm. Unicorn performs on-par or better than its task-specific counterparts in 8 tracking datasets, including LaSOT, TrackingNet, MOT17, BDD100K, DAVIS16-17, MOTS20, and BDD100K MOTS. We believe that Unicorn will serve as a solid step towards the general vision model. Code is available at https://github.com/MasterBin-IIAU/Unicorn.

arxiv情報

著者 Bin Yan,Yi Jiang,Peize Sun,Dong Wang,Zehuan Yuan,Ping Luo,Huchuan Lu
発行日 2022-07-28 12:18:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク