Agronav: Autonomous Navigation Framework for Agricultural Robots and Vehicles using Semantic Segmentation and Semantic Line Detection

要約

タイトル:
Agronav:農業ロボットおよび車両の自律航行フレームワークにおけるセマンティックセグメンテーションとセマンティックライン検出の活用

要約:
– 農業用の視覚ベースのナビゲーションの実現には、シーン内の鍵となるコンポーネントの正確な識別と、作物と移動可能な地面を分ける境界線の検出によるレーンの識別の2つの重要な要素がある。
– Agronavは、セマンティックセグメンテーションとセマンティックライン検出モデルを順次処理することによって、入力画像から中心ラインを出力するエンドツーエンドの視覚ベースの自律航行フレームワークである。
– Agroscapesは、6つの異なる作物から収集され、さまざまな高さと角度からキャプチャされたピクセルレベルの注釈付きデータセットであり、Agroscapesでトレーニングされたフレームワークは、地上および空中のロボットプラットフォームの両方に適用できるようになる。
– コード、モデル、およびデータセットは、\href{https://github.com/shivamkumarpanda/agronav}{github.com/shivamkumarpanda/agronav} で公開される。

要点:

– 農業用の自律航行フレームワークであるAgronavを提案している。
– Agronavは、セマンティックセグメンテーションとセマンティックライン検出モデルを組み合わせたエンドツーエンドのモデルで、入力画像から中心ラインを出力する。
– Agroscapesは、6つの異なる作物を含むピクセルレベルの注釈付きのデータセットであり、地上および空中のロボットプラットフォームの両方で使用できる。
– コード、モデル、データセットは、github.com/shivamkumarpanda/agronavで公開されている。

要約(オリジナル)

The successful implementation of vision-based navigation in agricultural fields hinges upon two critical components: 1) the accurate identification of key components within the scene, and 2) the identification of lanes through the detection of boundary lines that separate the crops from the traversable ground. We propose Agronav, an end-to-end vision-based autonomous navigation framework, which outputs the centerline from the input image by sequentially processing it through semantic segmentation and semantic line detection models. We also present Agroscapes, a pixel-level annotated dataset collected across six different crops, captured from varying heights and angles. This ensures that the framework trained on Agroscapes is generalizable across both ground and aerial robotic platforms. Codes, models and dataset will be released at \href{https://github.com/shivamkumarpanda/agronav}{github.com/shivamkumarpanda/agronav}.

arxiv情報

著者 Shivam K Panda,Yongkyu Lee,M. Khalid Jawed
発行日 2023-04-10 00:06:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク