Towards Grand Unification of Object Tracking

要約

我々は、Unicornと名付けた、4つの追跡問題(SOT, MOT, VOS, MOTS)を同一のモデルパラメータを用いて、単一のネットワークで同時に解くことができる統一的な手法を発表する。物体追跡問題自体の定義が細分化されているため、既存の追跡装置の多くは、単一または一部のタスクに対応し、特定のタスクの特性に過剰に特化して開発されています。これに対し、Unicornは、全てのトラッキングタスクにおいて、同じ入力、バックボーン、エンベッディング、ヘッドを採用し、統一的なソリューションを提供します。トラッキングネットワークのアーキテクチャと学習パラダイムの大統一を初めて成し遂げました。LaSOT, TrackingNet, MOT17, BDD100K, DAVIS16-17, MOTS20, BDD100K MOTSの8つのトラッキングデータセットにおいて、Unicornはタスク別の対応と同等以上の性能を発揮しています。我々は、Unicornが一般的なビジョンモデルへの確かな一歩となることを信じている。コードは https://github.com/MasterBin-IIAU/Unicorn で公開されています。

要約(オリジナル)

We present a unified method, termed Unicorn, that can simultaneously solve four tracking problems (SOT, MOT, VOS, MOTS) with a single network using the same model parameters. Due to the fragmented definitions of the object tracking problem itself, most existing trackers are developed to address a single or part of tasks and overspecialize on the characteristics of specific tasks. By contrast, Unicorn provides a unified solution, adopting the same input, backbone, embedding, and head across all tracking tasks. For the first time, we accomplish the great unification of the tracking network architecture and learning paradigm. Unicorn performs on-par or better than its task-specific counterparts in 8 tracking datasets, including LaSOT, TrackingNet, MOT17, BDD100K, DAVIS16-17, MOTS20, and BDD100K MOTS. We believe that Unicorn will serve as a solid step towards the general vision model. Code is available at https://github.com/MasterBin-IIAU/Unicorn.

arxiv情報

著者 Bin Yan,Yi Jiang,Peize Sun,Dong Wang,Zehuan Yuan,Ping Luo,Huchuan Lu
発行日 2022-08-11 04:22:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク