A Universal Semantic-Geometric Representation for Robotic Manipulation

要約

ロボットは、世界を認識し、世界と対話するために、センサー、特に RGB カメラと深度カメラに大きく依存しています。
RGB カメラは、正確な空間情報が欠けている一方で、豊富な意味情報を含む 2D 画像を記録します。
一方、深度カメラは重要な 3D ジオメトリ データを提供しますが、キャプチャできるセマンティクスは限られています。
したがって、ロボットの知覚と制御のための表現を学習するには、両方のモダリティを統合することが重要です。
しかし、現在の研究は主にこれらの手段の 1 つにのみ焦点を当てており、両方を組み込む利点は無視されています。
この目的を達成するために、我々は $\textbf{意味幾何表現} (\textbf{SGR})$ を提案します。これは、大規模な事前学習済み 2D モデルの豊富な意味情報を活用し、その利点を継承するロボット工学用の汎用認識モジュールです。
3D 空間推論。
私たちの実験では、SGR によってエージェントがさまざまなシミュレーションおよび現実世界のロボット操作タスクを正常に完了できるようになり、シングルタスク設定とマルチタスク設定の両方で最先端の手法を大幅に上回るパフォーマンスが得られることが実証されました。
さらに、SGR は、他の方法とは一線を画し、新しい意味論的属性に一般化する機能を備えています。
プロジェクトの Web サイト: https://semantic-geometric-representation.github.io。

要約(オリジナル)

Robots rely heavily on sensors, especially RGB and depth cameras, to perceive and interact with the world. RGB cameras record 2D images with rich semantic information while missing precise spatial information. On the other side, depth cameras offer critical 3D geometry data but capture limited semantics. Therefore, integrating both modalities is crucial for learning representations for robotic perception and control. However, current research predominantly focuses on only one of these modalities, neglecting the benefits of incorporating both. To this end, we present $\textbf{Semantic-Geometric Representation} (\textbf{SGR})$, a universal perception module for robotics that leverages the rich semantic information of large-scale pre-trained 2D models and inherits the merits of 3D spatial reasoning. Our experiments demonstrate that SGR empowers the agent to successfully complete a diverse range of simulated and real-world robotic manipulation tasks, outperforming state-of-the-art methods significantly in both single-task and multi-task settings. Furthermore, SGR possesses the capability to generalize to novel semantic attributes, setting it apart from the other methods. Project website: https://semantic-geometric-representation.github.io.

arxiv情報

著者 Tong Zhang,Yingdong Hu,Hanchen Cui,Hang Zhao,Yang Gao
発行日 2023-10-13 13:05:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク