要約
タイトル:Segment Anything
要約:
– 画像のセグメンテーションの新しいタスク、モデル、データセットであるSegment Anything(SA)プロジェクトを紹介する。
– 効率的なモデルをデータ収集ループで使用して、1億枚以上のマスクを持つ、これまでで最大のセグメンテーションデータセットを構築した。
– このモデルは、提示可能に設計されているため、新しい画像分布やタスクに対してゼロショットで転移することができる。
– 多数のタスクでその能力を評価し、ゼロショットのパフォーマンスが優れていることがわかった。完全に監視された結果に比べて競争力がある場合が多い。
– Segment Anythingモデル(SAM)と対応する1Bマスクと11Mの画像のデータセット(SA-1B)をhttps://segment-anything.comでリリースし、コンピュータビジョンの基盤モデルの研究を促進する。
要約(オリジナル)
We introduce the Segment Anything (SA) project: a new task, model, and dataset for image segmentation. Using our efficient model in a data collection loop, we built the largest segmentation dataset to date (by far), with over 1 billion masks on 11M licensed and privacy respecting images. The model is designed and trained to be promptable, so it can transfer zero-shot to new image distributions and tasks. We evaluate its capabilities on numerous tasks and find that its zero-shot performance is impressive — often competitive with or even superior to prior fully supervised results. We are releasing the Segment Anything Model (SAM) and corresponding dataset (SA-1B) of 1B masks and 11M images at https://segment-anything.com to foster research into foundation models for computer vision.
arxiv情報
著者 | Alexander Kirillov,Eric Mintun,Nikhila Ravi,Hanzi Mao,Chloe Rolland,Laura Gustafson,Tete Xiao,Spencer Whitehead,Alexander C. Berg,Wan-Yen Lo,Piotr Dollár,Ross Girshick |
発行日 | 2023-04-05 17:59:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI