要約
私たちは、セグメンテーション、インスタンスの識別、空間上のセマンティック検索、ビューの位置特定などのさまざまなタスクに使用できる暗黙的なシーン モデルである CLIP-Fields を提案します。
CLIP-Fields は、空間的な位置から意味論的な埋め込みベクトルへのマッピングを学習します。
重要なのは、このマッピングは、CLIP、Detic、Sentence-BERT などの Web 画像および Web テキストでトレーニングされたモデルのみからの監視によってトレーニングできることを示しています。
したがって、人間による直接の監視は使用されません。
Mask-RCNN のようなベースラインと比較した場合、私たちの方法は、ほんの一部の例を使用した HM3D データセット上の少数ショットのインスタンス識別やセマンティック セグメンテーションで優れたパフォーマンスを発揮します。
最後に、CLIP-Fields をシーン メモリとして使用することで、ロボットが現実世界の環境でセマンティック ナビゲーションを実行できることを示します。
私たちのコードとデモビデオはここから入手できます: https://mahis.life/clip-fields
要約(オリジナル)
We propose CLIP-Fields, an implicit scene model that can be used for a variety of tasks, such as segmentation, instance identification, semantic search over space, and view localization. CLIP-Fields learns a mapping from spatial locations to semantic embedding vectors. Importantly, we show that this mapping can be trained with supervision coming only from web-image and web-text trained models such as CLIP, Detic, and Sentence-BERT; and thus uses no direct human supervision. When compared to baselines like Mask-RCNN, our method outperforms on few-shot instance identification or semantic segmentation on the HM3D dataset with only a fraction of the examples. Finally, we show that using CLIP-Fields as a scene memory, robots can perform semantic navigation in real-world environments. Our code and demonstration videos are available here: https://mahis.life/clip-fields
arxiv情報
著者 | Nur Muhammad Mahi Shafiullah,Chris Paxton,Lerrel Pinto,Soumith Chintala,Arthur Szlam |
発行日 | 2023-05-22 22:34:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google