要約
人間のローカライズは、人々に近接して動作するサービスロボットにとって重要な前提条件です。
これらのシナリオでは、ロボットは通常、RGB-Dカメラまたは高価な3Dライダーで動作するように設計された最先端の多数の検出器に依存しています。
ただし、ほとんどの市販のサービスロボットには、狭い視野のカメラが装備されており、ユーザーが他の方向から近づいているときに盲目になります。
これらの制限に対処するために、監督ソースとしてRGB-Dカメラからの検出を使用して、人間を検出し、1D LIDARデータからの2Dポーズを推定するための自己監視アプローチを提案します。
私たちのアプローチは、近くの人間の空間的認識をサービスロボットに提供することを目的としています。
2つの環境で自律的に収集された70分間のデータでトレーニングした後、私たちのモデルは、71%の精度と80%のリコールで、新しい環境で1D Lidarデータから人間を全方向に検出することができ、距離は13 cm、44 {\ deg}の平均絶対誤差を保持します。
要約(オリジナル)
Localizing humans is a key prerequisite for any service robot operating in proximity to people. In these scenarios, robots rely on a multitude of state-of-the-art detectors usually designed to operate with RGB-D cameras or expensive 3D LiDARs. However, most commercially available service robots are equipped with cameras with a narrow field of view, making them blind when a user is approaching from other directions, or inexpensive 1D LiDARs whose readings are difficult to interpret. To address these limitations, we propose a self-supervised approach to detect humans and estimate their 2D pose from 1D LiDAR data, using detections from an RGB-D camera as a supervision source. Our approach aims to provide service robots with spatial awareness of nearby humans. After training on 70 minutes of data autonomously collected in two environments, our model is capable of detecting humans omnidirectionally from 1D LiDAR data in a novel environment, with 71% precision and 80% recall, while retaining an average absolute error of 13 cm in distance and 44{\deg} in orientation.
arxiv情報
| 著者 | Simone Arreghini,Nicholas Carlotti,Mirko Nava,Antonio Paolillo,Alessandro Giusti |
| 発行日 | 2025-02-28 13:22:12+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google