要約
人間の直接の監督なしでトレーニングできる暗黙的なシーンモデルであるCLIP-Fieldsを提案します。
このモデルは、空間位置からセマンティック埋め込みベクトルへのマッピングを学習します。
このマッピングは、セグメンテーション、インスタンスの識別、空間に対するセマンティック検索、ビューのローカリゼーションなど、さまざまなタスクに使用できます。
最も重要なことは、マッピングは、CLIP、Detic、Sentence-BERT などの Web 画像および Web テキストでトレーニングされたモデルのみからの監督でトレーニングできることです。
Mask-RCNN のようなベースラインと比較すると、私たちの方法は、例のほんの一部で、HM3D データセットの少数のインスタンス識別またはセマンティック セグメンテーションで優れています。
最後に、シーン メモリとして CLIP フィールドを使用して、ロボットが現実世界の環境でセマンティック ナビゲーションを実行できることを示します。
私たちのコードとデモは、https://mahis.life/clip-fields/ から入手できます。
要約(オリジナル)
We propose CLIP-Fields, an implicit scene model that can be trained with no direct human supervision. This model learns a mapping from spatial locations to semantic embedding vectors. The mapping can then be used for a variety of tasks, such as segmentation, instance identification, semantic search over space, and view localization. Most importantly, the mapping can be trained with supervision coming only from web-image and web-text trained models such as CLIP, Detic, and Sentence-BERT. When compared to baselines like Mask-RCNN, our method outperforms on few-shot instance identification or semantic segmentation on the HM3D dataset with only a fraction of the examples. Finally, we show that using CLIP-Fields as a scene memory, robots can perform semantic navigation in real-world environments. Our code and demonstrations are available here: https://mahis.life/clip-fields/
arxiv情報
著者 | Nur Muhammad Mahi Shafiullah,Chris Paxton,Lerrel Pinto,Soumith Chintala,Arthur Szlam |
発行日 | 2022-10-11 17:57:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google