要約
Gazebo、Unity、Webots などのシミュレーション エンジンは、ロボティクスで広く採用されています。
ただし、完全なシミュレーション制御、ROS 統合、現実的な物理学、またはフォトリアリズムのいずれかが欠けています。
最近では、合成データの生成とリアルなレンダリングにより、ターゲット追跡や人間の姿勢推定などの高度なタスクが行われています。
ただし、ビジョン アプリケーションに注目すると、通常、センサー測定値 (IMU、LiDAR、関節状態など) や時間連続性などの情報が不足します。
一方、ほとんどのロボティクス アプリケーションのシミュレーションは、特定のセンサー設定と視覚的忠実度の低い (半) 静的環境で取得されます。
この作業では、ロボット研究用の現実的なアニメーション動的環境 (GRADE) を生成するための完全にカスタマイズ可能なフレームワークを使用して、これらの問題に対するソリューションを提示します。
生成されたデータは、後処理することができます。
ノイズを追加し、提供するツールを使用して新しい情報で簡単に拡張できます。
GRADE を実証するために、それを使用して屋内動的環境データセットを生成し、生成されたシーケンスで異なる SLAM アルゴリズムを比較します。
そうすることで、現在の研究がよく知られているベンチマークに過度に依存し、一般化に失敗していることを示しています。
さらに、YOLO と Mask R-CNN を使用したテストは、データがトレーニングのパフォーマンスを向上させ、実際のシーケンスに一般化できるという証拠を提供します。
最後に、さまざまな環境ソースを使用した屋内アクティブ SLAM やマルチロボット シナリオで GRADE を使用することで、GRADE の柔軟性を示します。
その際、さまざまな制御、アセットの配置、およびシミュレーションの手法を採用しています。
コード、結果、実装の詳細、および生成されたデータは、オープン ソースとして提供されます。
プロジェクトのメイン ページは https://eliabntt.github.io/grade-rr で、付属のビデオは https://youtu.be/cmywCSD-9TU にあります。
要約(オリジナル)
Simulation engines like Gazebo, Unity and Webots are widely adopted in robotics. However, they lack either full simulation control, ROS integration, realistic physics, or photorealism. Recently, synthetic data generation and realistic rendering advanced tasks like target tracking and human pose estimation. However, when focusing on vision applications, there is usually a lack of information like sensor measurements (e.g. IMU, LiDAR, joint state), or time continuity. On the other hand, simulations for most robotics applications are obtained in (semi)static environments, with specific sensor settings and low visual fidelity. In this work, we present a solution to these issues with a fully customizable framework for generating realistic animated dynamic environments (GRADE) for robotics research. The data produced can be post-processed, e.g. to add noise, and easily expanded with new information using the tools that we provide. To demonstrate GRADE, we use it to generate an indoor dynamic environment dataset and then compare different SLAM algorithms on the produced sequences. By doing that, we show how current research over-relies on well-known benchmarks and fails to generalize. Furthermore, our tests with YOLO and Mask R-CNN provide evidence that our data can improve training performance and generalize to real sequences. Finally, we show GRADE’s flexibility by using it for indoor active SLAM, with diverse environment sources, and in a multi-robot scenario. In doing that, we employ different control, asset placement, and simulation techniques. The code, results, implementation details, and generated data are provided as open-source. The main project page is https://eliabntt.github.io/grade-rr while the accompanying video can be found at https://youtu.be/cmywCSD-9TU.
arxiv情報
著者 | Elia Bonetto,Chenghao Xu,Aamir Ahmad |
発行日 | 2023-03-08 09:36:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google