要約
このペーパーでは、単一の最適化可能なファクター グラフ (1) 関連する測定値とロボットのポーズを含むロボット キーフレームのセットとしてのポーズ グラフ、および (2) 3D シーン グラフを共同でモデル化する、状況グラフの進化版を紹介します。
、意味論的な属性とそれらの間の関係情報を備えたさまざまな幾何学的要素をエンコードする環境の高レベル表現として。
具体的には、S-Graphs+ は新しい 4 層のファクター グラフであり、(1) ロボットの姿勢推定を含むキーフレーム レイヤー、(2) 壁面を表す壁レイヤー、(3) 壁面のセットを含む部屋レイヤー、
(4) 特定のフロア レベル内の部屋を集めたフロア レイヤー。
上記のグラフは、ロボットの姿勢とそのマップの堅牢かつ正確な推定を取得するためにリアルタイムで最適化され、同時に環境の高レベルの情報を構築して活用します。
この高レベルの情報を抽出するために、マップされた壁面と自由空間クラスターを利用した新しい部屋と床のセグメンテーション アルゴリズムを紹介します。
私たちは、さまざまな建設現場からの屋内環境のシミュレーション データと実際のデータを含む複数のデータセット、およびいくつかの屋内オフィス エリアの実際の公開データセットで S-Graphs+ をテストしました。
当社のデータセットの平均では、S-Graphs+ は 2 番目に優れた方法の精度を 10.67% 上回っており、より豊富なシーン モデルによってロボットの状況認識を拡張しています。
さらに、ソフトウェアを docker ファイルとして利用できるようにします。
要約(オリジナル)
In this paper, we present an evolved version of Situational Graphs, which jointly models in a single optimizable factor graph (1) a pose graph, as a set of robot keyframes comprising associated measurements and robot poses, and (2) a 3D scene graph, as a high-level representation of the environment that encodes its different geometric elements with semantic attributes and the relational information between them. Specifically, our S-Graphs+ is a novel four-layered factor graph that includes: (1) a keyframes layer with robot pose estimates, (2) a walls layer representing wall surfaces, (3) a rooms layer encompassing sets of wall planes, and (4) a floors layer gathering the rooms within a given floor level. The above graph is optimized in real-time to obtain a robust and accurate estimate of the robots pose and its map, simultaneously constructing and leveraging high-level information of the environment. To extract this high-level information, we present novel room and floor segmentation algorithms utilizing the mapped wall planes and free-space clusters. We tested S-Graphs+ on multiple datasets, including simulated and real data of indoor environments from varying construction sites, and on a real public dataset of several indoor office areas. On average over our datasets, S-Graphs+ outperforms the accuracy of the second-best method by a margin of 10.67%, while extending the robot situational awareness by a richer scene model. Moreover, we make the software available as a docker file.
arxiv情報
著者 | Hriday Bavle,Jose Luis Sanchez-Lopez,Muhammad Shaheer,Javier Civera,Holger Voos |
発行日 | 2023-05-26 09:50:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google