要約
この研究では、ClearPathのハスキーロボットプラットフォームと綿目の知覚システムに基づいて構築された自律視覚誘導ロボットの綿ピッキングシステムが、ガゼボロボットシミュレーターで開発されました。
さらに、自律型フィールドナビゲーションをシミュレートするために、ロボットコットンピッカーをガゼボ環境に展開するためのロボットオペレーティングシステム(ROS 1)パッケージとして設計および開発されました。
ナビゲーションはMAP座標とRGB深いカメラによって支援され、ROSナビゲーションアルゴリズムは、たとえばセグメンテーションのために訓練されたYolov8n-SEGモデルを利用しました。
このモデルは、85.2%の望ましい平均平均精度(MAP)、88.9%のリコール、およびシーンセグメンテーションで93.0%の精度を達成しました。
開発されたROSナビゲーションパッケージにより、ロボットの綿ピッキングシステムは、深い学習ベースの知覚システムによって視覚的に支援された、MAPベースおよびGPSベースのアプローチを使用して、コットンフィールドを自律的にナビゲートすることができました。
GPSベースのナビゲーションアプローチでは、しきい値が5 x 10^-6度の100%完了率(CR)を達成しましたが、マップベースのナビゲーションアプローチでは、しきい値が0.25 mの96.7%CRに達しました。
この研究では、綿花農業およびそれ以降の将来の農業ロボット工学と自動運転車のシミュレーションの基本的なベースラインを確立しています。
cottonsimコードとデータは、github:https://github.com/imtheva/cottonsim経由で研究コミュニティにリリースされます
要約(オリジナル)
In this study, an autonomous visual-guided robotic cotton-picking system, built on a Clearpath’s Husky robot platform and the Cotton-Eye perception system, was developed in the Gazebo robotic simulator. Furthermore, a virtual cotton farm was designed and developed as a Robot Operating System (ROS 1) package to deploy the robotic cotton picker in the Gazebo environment for simulating autonomous field navigation. The navigation was assisted by the map coordinates and an RGB-depth camera, while the ROS navigation algorithm utilized a trained YOLOv8n-seg model for instance segmentation. The model achieved a desired mean Average Precision (mAP) of 85.2%, a recall of 88.9%, and a precision of 93.0% for scene segmentation. The developed ROS navigation packages enabled our robotic cotton-picking system to autonomously navigate through the cotton field using map-based and GPS-based approaches, visually aided by a deep learning-based perception system. The GPS-based navigation approach achieved a 100% completion rate (CR) with a threshold of 5 x 10^-6 degrees, while the map-based navigation approach attained a 96.7% CR with a threshold of 0.25 m. This study establishes a fundamental baseline of simulation for future agricultural robotics and autonomous vehicles in cotton farming and beyond. CottonSim code and data are released to the research community via GitHub: https://github.com/imtheva/CottonSim
arxiv情報
著者 | Thevathayarajh Thayananthan,Xin Zhang,Yanbo Huang,Jingdao Chen,Nuwan K. Wijewardane,Vitor S. Martins,Gary D. Chesser,Christopher T. Goodin |
発行日 | 2025-05-08 15:02:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google