要約
水中での物体の姿勢推定により、自律システムが追跡および介入タスクを実行できるようになります。
それにもかかわらず、水中のターゲットの姿勢推定は、多くの要因の中でもとりわけ、限られた視界、光の散乱、乱雑な環境、および絶えず変化する水の状態のため、非常に困難です。
ソナーまたはレーザー センシングを使用して 3D データを取得するというアプローチもありますが、データは明確ではなく、センサーは高価です。
このため、コミュニティは RGB 入力から姿勢推定を抽出することに重点を置いています。
この研究では、2D 物体検出を活用して、さまざまな水中シナリオで 6D 姿勢推定を確実に計算するアプローチを提案します。
私たちは、33,920 の合成シーンと 10 の実際のシーンにまたがる、対称的な形状と貧弱なテクスチャを持つ 4 つのオブジェクトを使用して提案をテストしました。
すべてのオブジェクトとシーンは、オブジェクト検出と姿勢推定のためのアノテーションを含むオープンソース データセットで利用できます。
6D オブジェクトの姿勢推定の同様のエンドツーエンド手法に対してベンチマークを行う場合、当社のパイプラインは 8% より正確な推定を提供します。
また、到達タスクにおける水中ロボット マニピュレーターでの姿勢推定パイプラインの実際の有用性も実証します。
要約(オリジナル)
Object pose estimation underwater allows an autonomous system to perform tracking and intervention tasks. Nonetheless, underwater target pose estimation is remarkably challenging due to, among many factors, limited visibility, light scattering, cluttered environments, and constantly varying water conditions. An approach is to employ sonar or laser sensing to acquire 3D data, however, the data is not clear and the sensors expensive. For this reason, the community has focused on extracting pose estimates from RGB input. In this work, we propose an approach that leverages 2D object detection to reliably compute 6D pose estimates in different underwater scenarios. We test our proposal with 4 objects with symmetrical shapes and poor texture spanning across 33,920 synthetic and 10 real scenes. All objects and scenes are made available in an open-source dataset that includes annotations for object detection and pose estimation. When benchmarking against similar end-to-end methodologies for 6D object pose estimation, our pipeline provides estimates that are 8% more accurate. We also demonstrate the real world usability of our pose estimation pipeline on an underwater robotic manipulator in a reaching task.
arxiv情報
著者 | Davide Sapienza,Elena Govi,Sara Aldhaheri,Marko Bertogna,Eloy Roura,Èric Pairet,Micaela Verucchi,Paola Ardón |
発行日 | 2023-09-15 09:34:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google