Deep learning-based Crop Row Following for Infield Navigation of Agri-Robots

要約

農業環境における自律航法は、耕作地で発生しうる様々な圃場条件によって、しばしば困難を伴います。このような農業環境における自律航法のための最先端のソリューションは、RTK-GPSのような高価なハードウェアを必要とします。本論文では、ビジュアルサーボのために作物列を検出しながら、それらの変動に耐えることができるロバストな作物列検出アルゴリズムを紹介する。耕作地で見られる11の圃場変動の43の組み合わせで甜菜画像のデータセットを作成した。また、作物列の検出性能と作物列に沿ってビジュアルサーボを行う機能を検証した。このアルゴリズムはRGB画像のみを入力とし、畳み込みニューラルネットワークを用いて作物列のマスクを予測した。我々のアルゴリズムは、圃場のバリエーションの全ての組み合わせにおいて、カラーベースのセグメンテーションを用いるベースライン手法を凌駕した。我々は、作物列検出の角度誤差と変位誤差を考慮した複合的な性能指標を使用している。我々のアルゴリズムは、作物の初期成長段階において最悪の性能を示した。

要約(オリジナル)

Autonomous navigation in agricultural environments is often challenged by varying field conditions that may arise in arable fields. The state-of-the-art solutions for autonomous navigation in these agricultural environments will require expensive hardware such as RTK-GPS. This paper presents a robust crop row detection algorithm that can withstand those variations while detecting crop rows for visual servoing. A dataset of sugar beet images was created with 43 combinations of 11 field variations found in arable fields. The novel crop row detection algorithm is tested both for the crop row detection performance and also the capability of visual servoing along a crop row. The algorithm only uses RGB images as input and a convolutional neural network was used to predict crop row masks. Our algorithm outperformed the baseline method which uses colour-based segmentation for all the combinations of field variations. We use a combined performance indicator that accounts for the angular and displacement errors of the crop row detection. Our algorithm exhibited the worst performance during the early growth stages of the crop.

arxiv情報

著者 Rajitha de Silva,Grzegorz Cielniak,Gang Wang,Junfeng Gao
発行日 2022-09-09 12:47:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク