Vision-based Safe Autonomous UAV Docking with Panoramic Sensors

要約

無人航空機(UAV)の目覚ましい成長により、ミッション中の安全対策についても懸念が生じています。
より安全な自律型航空機ロボットに向けて前進するために、この研究では、最小限のインフラストラクチャで安全な自律型 UAV 着陸を確保するためのビジョンベースのソリューションを提示します。
ドッキング操作中、UAV は周囲の人々に危険をもたらします。
この論文では、着陸エリア周囲の人々の位置を検出および推定するために、着陸パッドから上向きに向けられた単一の全方位パノラマ カメラの使用を提案します。
画像は組み込みコンピューターでリアルタイムに処理され、接近する UAV の搭載コンピューターと通信して、着陸、ホバリング、または緊急着陸の状態の間で移行します。
着陸中、地上カメラは最適な位置を見つけるのにも役立ちます。これは、バッテリー残量が少ない場合やホバリングが不可能な場合に必要になる場合があります。
私たちは、近くにいる人の位置を特定するために YOLOv7 ベースの物体検出モデルと XGBooxt モデルを使用し、UAV の通信、インターフェース、および制御にはオープンソースの ROS および PX4 フレームワークを使用します。
私たちは、シミュレーションと実際の屋内実験結果の両方を提示して、私たちの方法の効率性を示します。

要約(オリジナル)

The remarkable growth of unmanned aerial vehicles (UAVs) has also sparked concerns about safety measures during their missions. To advance towards safer autonomous aerial robots, this work presents a vision-based solution to ensuring safe autonomous UAV landings with minimal infrastructure. During docking maneuvers, UAVs pose a hazard to people in the vicinity. In this paper, we propose the use of a single omnidirectional panoramic camera pointing upwards from a landing pad to detect and estimate the position of people around the landing area. The images are processed in real-time in an embedded computer, which communicates with the onboard computer of approaching UAVs to transition between landing, hovering or emergency landing states. While landing, the ground camera also aids in finding an optimal position, which can be required in case of low-battery or when hovering is no longer possible. We use a YOLOv7-based object detection model and a XGBooxt model for localizing nearby people, and the open-source ROS and PX4 frameworks for communication, interfacing, and control of the UAV. We present both simulation and real-world indoor experimental results to show the efficiency of our methods.

arxiv情報

著者 Phuoc Nguyen Thuan,Tomi Westerlund,Jorge Peña Queralta
発行日 2023-10-06 10:50:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク