QueensCAMP: an RGB-D dataset for robust Visual SLAM

要約

Visual Simultaneous Localization and Mapping (VSLAM) は、ロボット工学アプリケーションの基本テクノロジーです。
VSLAM 研究は大幅な進歩を遂げていますが、不十分な照明、動的な環境、モーション ブラー、センサーの故障などの困難な状況下での堅牢性は依然として困難な問題です。
これらの課題に対処するために、VSLAM システムの堅牢性を評価するために設計された新しい RGB-D データセットを導入します。
このデータセットは、動的なオブジェクト、モーション ブラー、さまざまな照明を含む現実世界の屋内シーンと、レンズの汚れ、結露、露出不足、露出オーバーなどのエミュレートされたカメラの故障で構成されています。
さらに、カメラの障害を画像に挿入するためのオープンソース スクリプトを提供しており、研究コミュニティによるさらなるカスタマイズが可能です。
私たちの実験では、従来の VSLAM アルゴリズムである ORB-SLAM2 と、深層学習ベースの VO アルゴリズムである TartanVO は、これらの困難な条件下でパフォーマンスが低下する可能性があることを示しています。
したがって、このデータセットとカメラ障害のオープンソース ツールは、現実世界の課題に対処できる、より堅牢な VSLAM システムを開発するための貴重なリソースを提供します。

要約(オリジナル)

Visual Simultaneous Localization and Mapping (VSLAM) is a fundamental technology for robotics applications. While VSLAM research has achieved significant advancements, its robustness under challenging situations, such as poor lighting, dynamic environments, motion blur, and sensor failures, remains a challenging issue. To address these challenges, we introduce a novel RGB-D dataset designed for evaluating the robustness of VSLAM systems. The dataset comprises real-world indoor scenes with dynamic objects, motion blur, and varying illumination, as well as emulated camera failures, including lens dirt, condensation, underexposure, and overexposure. Additionally, we offer open-source scripts for injecting camera failures into any images, enabling further customization by the research community. Our experiments demonstrate that ORB-SLAM2, a traditional VSLAM algorithm, and TartanVO, a Deep Learning-based VO algorithm, can experience performance degradation under these challenging conditions. Therefore, this dataset and the camera failure open-source tools provide a valuable resource for developing more robust VSLAM systems capable of handling real-world challenges.

arxiv情報

著者 Hudson M. S. Bruno,Esther L. Colombini,Sidney N. Givigi Jr
発行日 2024-10-16 12:58:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク