要約
最近、トランスフォーマーベースの方法は、ビデオ インスタンス セグメンテーション (VIS) で印象的な結果を達成しました。
ただし、これらの最もパフォーマンスの高い方法のほとんどは、ビデオ クリップ全体を一度に処理してインスタンス マスク ボリュームを予測することにより、オフラインで実行されます。
これにより、UVO や OVIS などの挑戦的な新しいビデオ インスタンス セグメンテーション データセットに表示される長いビデオを処理できなくなります。
YouTube-VIS 2019 ベンチマークでトップのオフライン メソッドと同等のパフォーマンスを発揮し、UVO と OVIS でそれらを大幅に上回る、完全にオンラインのトランスフォーマー ベースのビデオ インスタンス セグメンテーション モデルを提案します。
ロバスト オンライン ビデオ セグメンテーション (ROVIS) と呼ばれるこの方法は、トラック クエリを使用して Mask2Former 画像インスタンス セグメンテーション モデルを強化します。トラック クエリは、トラック情報をフレームからフレームへ運ぶための軽量メカニズムであり、もともとマルチオブジェクト トラッキング用の TrackFormer メソッドによって導入されました。
十分に強力な画像セグメンテーション アーキテクチャと組み合わせると、短いビデオに制約されることなく、トラック クエリが優れた精度を発揮できることがわかります。
要約(オリジナル)
Recently, transformer-based methods have achieved impressive results on Video Instance Segmentation (VIS). However, most of these top-performing methods run in an offline manner by processing the entire video clip at once to predict instance mask volumes. This makes them incapable of handling the long videos that appear in challenging new video instance segmentation datasets like UVO and OVIS. We propose a fully online transformer-based video instance segmentation model that performs comparably to top offline methods on the YouTube-VIS 2019 benchmark and considerably outperforms them on UVO and OVIS. This method, called Robust Online Video Segmentation (ROVIS), augments the Mask2Former image instance segmentation model with track queries, a lightweight mechanism for carrying track information from frame to frame, originally introduced by the TrackFormer method for multi-object tracking. We show that, when combined with a strong enough image segmentation architecture, track queries can exhibit impressive accuracy while not being constrained to short videos.
arxiv情報
著者 | Zitong Zhan,Daniel McKee,Svetlana Lazebnik |
発行日 | 2022-11-16 18:50:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google