要約
【タイトル】
Track Anything: Segment Anything Meets Videos
【要約】
・Segment Anything Model(SAM)は、画像のセグメンテーション性能が高く、異なるプロンプトとの相互作用が高いため、注目を集めています。
・しかし、動画においては一貫性のあるセグメンテーション性能が低いことが課題として残されていました。
・そのため、私たちは Track Anything Model(TAM)を提案し、高性能なインタラクティブなトラッキングとセグメンテーションを実現しました。
・具体的には、少数のクリックだけで人々が興味を持つものを追跡し、1回の推論で満足できる結果を得ることができます。
・追加のトレーニングなしで、このようなインタラクティブな設計は、動画オブジェクトの追跡とセグメンテーションの性能が印象的です。
・すべてのリソースは\ url {https://github.com/gaomingqi/Track-Anything}で利用可能であり、関連研究を促進することを望みます。
要約(オリジナル)
Recently, the Segment Anything Model (SAM) gains lots of attention rapidly due to its impressive segmentation performance on images. Regarding its strong ability on image segmentation and high interactivity with different prompts, we found that it performs poorly on consistent segmentation in videos. Therefore, in this report, we propose Track Anything Model (TAM), which achieves high-performance interactive tracking and segmentation in videos. To be detailed, given a video sequence, only with very little human participation, \textit{i.e.}, several clicks, people can track anything they are interested in, and get satisfactory results in one-pass inference. Without additional training, such an interactive design performs impressively on video object tracking and segmentation. All resources are available on \url{https://github.com/gaomingqi/Track-Anything}. We hope this work can facilitate related research.
arxiv情報
著者 | Jinyu Yang,Mingqi Gao,Zhe Li,Shang Gao,Fangjing Wang,Feng Zheng |
発行日 | 2023-04-24 10:04:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI