要約
ナビゲーティング エージェントの視覚的観察に対するグラウンディング言語は、インターネット スケールのデータ (画像キャプションなど) で事前トレーニングされた既製の視覚言語モデルを使用して実行できます。
これは、画像をオブジェクトの目標の自然言語記述に一致させるのに役立ちますが、環境をマッピングするプロセスとは切り離されたままであるため、従来の幾何学的マップの空間精度が欠けています。
この問題に対処するために、VLMaps を提案します。これは、事前にトレーニングされた視覚言語機能を物理世界の 3D 再構築と直接融合する空間マップ表現です。
VLMaps は、標準的な探索アプローチを使用してロボットのビデオ フィードから自律的に構築でき、追加のラベル付きデータなしでマップの自然言語インデックス作成を可能にします。
具体的には、大規模言語モデル (LLM) と組み合わせると、VLMaps を使用して、(i) 自然言語コマンドを一連のオープン ボキャブラリー ナビゲーション ゴールに変換できます (これは、以前の作業を超えて、構造によって空間的である可能性があります。
ソファとテレビの間」または「椅子の右 3 メートル」) をマップに直接ローカライズし、(ii) 異なる実施形態を持つ複数のロボット間で共有して、オンザフライで新しい障害マップを生成することができます (
障害カテゴリのリスト)。
シミュレートされた環境と現実世界の環境で実施された広範な実験は、VLMaps が既存の方法よりも複雑な言語指示に従ってナビゲーションを可能にすることを示しています。
ビデオは https://vlmaps.github.io で入手できます。
要約(オリジナル)
Grounding language to the visual observations of a navigating agent can be performed using off-the-shelf visual-language models pretrained on Internet-scale data (e.g., image captions). While this is useful for matching images to natural language descriptions of object goals, it remains disjoint from the process of mapping the environment, so that it lacks the spatial precision of classic geometric maps. To address this problem, we propose VLMaps, a spatial map representation that directly fuses pretrained visual-language features with a 3D reconstruction of the physical world. VLMaps can be autonomously built from video feed on robots using standard exploration approaches and enables natural language indexing of the map without additional labeled data. Specifically, when combined with large language models (LLMs), VLMaps can be used to (i) translate natural language commands into a sequence of open-vocabulary navigation goals (which, beyond prior work, can be spatial by construction, e.g., ‘in between the sofa and TV’ or ‘three meters to the right of the chair’) directly localized in the map, and (ii) can be shared among multiple robots with different embodiments to generate new obstacle maps on-the-fly (by using a list of obstacle categories). Extensive experiments carried out in simulated and real world environments show that VLMaps enable navigation according to more complex language instructions than existing methods. Videos are available at https://vlmaps.github.io.
arxiv情報
著者 | Chenguang Huang,Oier Mees,Andy Zeng,Wolfram Burgard |
発行日 | 2022-10-17 14:46:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google