要約
オープンワールド ビジョン システムに対する最近の熱意は、これまで非常に人気があったクローズドな語彙ベンチマーク設定の外で知覚タスクを実行することに対するコミュニティの高い関心を示しています。
データセットにどのようなオブジェクトが含まれているかを事前に知らなくても、画像やビデオ内のオブジェクトを発見できることは、興味深い見通しです。
しかし、オブジェクトについて何も知らずにオブジェクトを見つけるにはどうすればよいでしょうか?
最近の研究では、自己教師付き事前トレーニング機能を利用することで、クラスに依存しない教師なしオブジェクトの位置特定を実行できることが示されています。
ここでは、自己教師あり ViT の時代に手動による注釈を必要とせずに画像内のオブジェクトを発見する教師なしオブジェクト位置特定手法の調査を提案します。
議論されているメソッドのリンクをリポジトリ https://github.com/valeoai/Awesome-Unsupervised-Object-Localization に集めています。
要約(オリジナル)
The recent enthusiasm for open-world vision systems show the high interest of the community to perform perception tasks outside of the closed-vocabulary benchmark setups which have been so popular until now. Being able to discover objects in images/videos without knowing in advance what objects populate the dataset is an exciting prospect. But how to find objects without knowing anything about them? Recent works show that it is possible to perform class-agnostic unsupervised object localization by exploiting self-supervised pre-trained features. We propose here a survey of unsupervised object localization methods that discover objects in images without requiring any manual annotation in the era of self-supervised ViTs. We gather links of discussed methods in the repository https://github.com/valeoai/Awesome-Unsupervised-Object-Localization.
arxiv情報
著者 | Oriane Siméoni,Éloi Zablocki,Spyros Gidaris,Gilles Puy,Patrick Pérez |
発行日 | 2024-08-08 14:21:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google