要約
シミュレーション エンジンはロボット工学に広く採用されています。
ただし、完全なシミュレーション制御、ROS 統合、現実的な物理学、またはフォトリアリズムのいずれかが欠けています。
最近では、合成データの生成とリアルなレンダリングにより、ターゲット追跡や人間の姿勢推定などのタスクが高度化しています。
ただし、ビジョン アプリケーションに焦点を当てる場合、通常はセンサーの測定値や時間の連続性などの情報が不足します。
一方、ほとんどのロボット タスクのシミュレーションは、特定のセンサーと低い視覚的忠実度を備えた (半) 静的環境で実行されます。
これを解決するために、私たちは以前の研究で、リアルなアニメーションの動的環境 (GRADE) を生成するための完全にカスタマイズ可能なフレームワークを導入しました [1]。
GRADE を使用して屋内動的環境データセットを生成し、異なるシーケンスで複数の SLAM アルゴリズムを比較します。
そうすることで、現在の研究が既知のベンチマークに過度に依存しており、一般化に失敗していることがわかります。
洗練された YOLO モデルとマスク R-CNN モデルを使用したテストは、動的 SLAM の追加研究が必要であることを示すさらなる証拠を提供します。
コード、結果、生成されたデータは、https://eliabntt.github.io/grade-rr でオープンソースとして提供されています。SLAM の動的環境のシミュレーション
要約(オリジナル)
Simulation engines are widely adopted in robotics. However, they lack either full simulation control, ROS integration, realistic physics, or photorealism. Recently, synthetic data generation and realistic rendering has advanced tasks like target tracking and human pose estimation. However, when focusing on vision applications, there is usually a lack of information like sensor measurements or time continuity. On the other hand, simulations for most robotics tasks are performed in (semi)static environments, with specific sensors and low visual fidelity. To solve this, we introduced in our previous work a fully customizable framework for generating realistic animated dynamic environments (GRADE) [1]. We use GRADE to generate an indoor dynamic environment dataset and then compare multiple SLAM algorithms on different sequences. By doing that, we show how current research over-relies on known benchmarks, failing to generalize. Our tests with refined YOLO and Mask R-CNN models provide further evidence that additional research in dynamic SLAM is necessary. The code, results, and generated data are provided as open-source at https://eliabntt.github.io/grade-rrSimulation of Dynamic Environments for SLAM
arxiv情報
著者 | Elia Bonetto,Chenghao Xu,Aamir Ahmad |
発行日 | 2023-05-26 09:32:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google