要約
この論文は、地図へのアクセスやロボットの完全な姿勢推定を前提とせずに、認識しにくい薄い障害物を含む雑然とした環境を飛行する航空機ロボットのための、モジュール化された学習ベースの新しい方法を提供します。
提案されたソリューションは、意味的にラベル付けされた薄い障害物を保持し、深度センサーの出力内の無効なピクセルを処理しながら、入力データを圧縮するために現実世界とシミュレートされた深度画像の両方でトレーニングされた意味的に強化された変分オートエンコーダーに基づいて構築されています。
この圧縮された表現は、線形速度/角速度とその姿勢を含むロボットの部分状態に加えて、シミュレーションで不確実性を認識した 3D 衝突予測ネットワークをトレーニングするために利用され、事前定義されたモーション プリミティブ ライブラリ内の候補アクション シーケンスの衝突スコアを予測します。
提案された方法のパフォーマンスを評価し、エンドツーエンドで訓練されたベースラインと比較するために、さまざまなサイズや種類の障害物 (知覚しにくい複数の薄い物体など) がある乱雑な環境での一連のシミュレーションと実験研究が実施されました。
この結果は、学習ベースの自律ナビゲーションに対して、提案された意味的に強化された深部衝突予測の利点を示しています。
要約(オリジナル)
This paper contributes a novel and modularized learning-based method for aerial robots navigating cluttered environments containing hard-to-perceive thin obstacles without assuming access to a map or the full pose estimation of the robot. The proposed solution builds upon a semantically-enhanced Variational Autoencoder that is trained with both real-world and simulated depth images to compress the input data, while preserving semantically-labeled thin obstacles and handling invalid pixels in the depth sensor’s output. This compressed representation, in addition to the robot’s partial state involving its linear/angular velocities and its attitude are then utilized to train an uncertainty-aware 3D Collision Prediction Network in simulation to predict collision scores for candidate action sequences in a predefined motion primitives library. A set of simulation and experimental studies in cluttered environments with various sizes and types of obstacles, including multiple hard-to-perceive thin objects, were conducted to evaluate the performance of the proposed method and compare against an end-to-end trained baseline. The results demonstrate the benefits of the proposed semantically-enhanced deep collision prediction for learning-based autonomous navigation.
arxiv情報
著者 | Mihir Kulkarni,Huan Nguyen,Kostas Alexis |
発行日 | 2023-07-21 12:12:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google