要約
自律型ロボットが登場する未来では、ロボット システムにとって視覚的および空間的認識が最も重要になります。
特に航空ロボティクスでは、現実世界のあらゆるシナリオで視覚認識を利用する必要がある多くのアプリケーションがあります。
ドローンを使用したロボットによる空中把握は、他のロボット ソリューションよりも機動性が大幅に向上した、迅速なピック アンド プレース ソリューションを約束します。
マスク R-CNN シーン セグメンテーション (detectron2) を利用して、オブジェクトの位置特定にマーカーに依存せず、オブジェクトの外観を事前に知る必要がない、自律的で迅速な空中把握のための視覚ベースのシステムを提案します。
セグメント化された画像を深度カメラからの空間情報と組み合わせて、検出されたオブジェクトの密な点群を生成し、ジオメトリベースの把握計画を実行して、オブジェクトの把握ポイントを決定します。
動的に把握する空中プラットフォームでの実世界の実験では、私たちのシステムがベースラインの把握成功率の最大 94.5% までオブジェクトの位置特定のためのモーション キャプチャ システムのパフォーマンスを再現できることを示します。
私たちの結果により、飛行プラットフォームでのジオメトリベースの把握技術の最初の使用を示し、既存の空中操作プラットフォームの自律性を高め、倉庫や同様の環境での実際のアプリケーションにさらに近づけることを目指しています。
要約(オリジナル)
In a future with autonomous robots, visual and spatial perception is of utmost importance for robotic systems. Particularly for aerial robotics, there are many applications where utilizing visual perception is necessary for any real-world scenarios. Robotic aerial grasping using drones promises fast pick-and-place solutions with a large increase in mobility over other robotic solutions. Utilizing Mask R-CNN scene segmentation (detectron2), we propose a vision-based system for autonomous rapid aerial grasping which does not rely on markers for object localization and does not require the appearence of the object to be previously known. Combining segmented images with spatial information from a depth camera, we generate a dense point cloud of the detected objects and perform geometry-based grasp planning to determine grasping points on the objects. In real-world experiments on a dynamically grasping aerial platform, we show that our system can replicate the performance of a motion capture system for object localization up to 94.5% of the baseline grasping success rate. With our results, we show the first use of geometry-based grasping techniques with a flying platform and aim to increase the autonomy of existing aerial manipulation platforms, bringing them further towards real-world applications in warehouses and similar environments.
arxiv情報
著者 | Erik Bauer,Barnabas Gavin Cangan,Robert K. Katzschmann |
発行日 | 2023-03-17 14:25:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google