Segment and Track Anything

要約

タイトル:Segment and Track Anything
要約:
– SAM-Trackというフレームワークを提案
– SAM-Trackは、ビデオ内の任意のオブジェクトを正確かつ効果的にセグメント化およびトラックできるようにする
– SAM-Trackは、クリック、ストローク、テキストなどの異なる方法をコンビネーション可能である交互作用方法を使用し、ユーザーが特定の要件に対応するためにビデオ内の複数のオブジェクトを選択できるようにする。
– SAM-Trackは、ドローン技術、自律運転、医療画像、拡張現実、生物分析など、さまざまな分野で使用できる。
– SAM-Trackは、SAM (Segment Anything Model) と、VOT 2022 の4トラックで1位を獲得したDeAOTと呼ばれる提案されたAOTベースのトラッキングモデルを組み合わせてオブジェクト追跡を容易にする。
– SAM-TrackにはGrounding-DINOも組み込まれており、テキストベースのインタラクションにも対応する。
– DAVIS-2016 Val (92.0%)、DAVIS-2017 Test (79.2%) でSAM-Trackの優れた能力が実証されており、さまざまなアプリケーションで実用的であることを示している。プロジェクトページは、https://github.com/z-x-yang/Segment-and-Track-Anythingにあります。

要約(オリジナル)

This report presents a framework called Segment And Track Anything (SAMTrack) that allows users to precisely and effectively segment and track any object in a video. Additionally, SAM-Track employs multimodal interaction methods that enable users to select multiple objects in videos for tracking, corresponding to their specific requirements. These interaction methods comprise click, stroke, and text, each possessing unique benefits and capable of being employed in combination. As a result, SAM-Track can be used across an array of fields, ranging from drone technology, autonomous driving, medical imaging, augmented reality, to biological analysis. SAM-Track amalgamates Segment Anything Model (SAM), an interactive key-frame segmentation model, with our proposed AOT-based tracking model (DeAOT), which secured 1st place in four tracks of the VOT 2022 challenge, to facilitate object tracking in video. In addition, SAM-Track incorporates Grounding-DINO, which enables the framework to support text-based interaction. We have demonstrated the remarkable capabilities of SAM-Track on DAVIS-2016 Val (92.0%), DAVIS-2017 Test (79.2%)and its practicability in diverse applications. The project page is available at: https://github.com/z-x-yang/Segment-and-Track-Anything.

arxiv情報

著者 Yangming Cheng,Liulei Li,Yuanyou Xu,Xiaodi Li,Zongxin Yang,Wenguan Wang,Yi Yang
発行日 2023-05-11 04:33:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク