On Domain-Specific Pre-Training for Effective Semantic Perception in Agricultural Robotics

要約

農業用ロボットには、食料、飼料、繊維のより効率的で持続可能な農業生産を可能にする見込みがあります。
作物と雑草の認識は、畑を監視し、植物とその成長段階を自動的に評価することを目的とした農業用ロボットの中心的なコンポーネントです。
セマンティックな認識は主に教師ありアプローチを使用した深層学習に依存しており、かなり大量のデータにラベルを付けるには時間と資格のある作業者が必要です。
このホワイト ペーパーでは、最終的なセグメンテーション パフォーマンスを損なうことなく、ラベルの量を削減する問題を検討します。
現場で動作するロボットの場合、監視された方法でネットワークを事前トレーニングすることは、必要なラベル付き画像の数を減らすための一般的な方法です。
ターゲット ドメインのデータを使用して、自己管理型の事前トレーニングの可能性を調査します。
このデータをより有効に活用するために、ドメイン固有の拡張戦略のセットを提案します。
セマンティック セグメンテーションとリーフ インスタンス セグメンテーションに関する事前トレーニングを評価します。これは、ドメインの 2 つの重要なタスクです。
実験結果は、データ拡張戦略と組み合わせたドメイン固有のデータを使用した事前トレーニングが、一般的に使用される事前トレーニングと比較して優れたパフォーマンスにつながることを示唆しています。
さらに、事前トレーニング済みのネットワークは、ラベル付けされたデータが少ない完全に教師ありのネットワークと同様のパフォーマンスを実現します。

要約(オリジナル)

Agricultural robots have the prospect to enable more efficient and sustainable agricultural production of food, feed, and fiber. Perception of crops and weeds is a central component of agricultural robots that aim to monitor fields and assess the plants as well as their growth stage in an automatic manner. Semantic perception mostly relies on deep learning using supervised approaches, which require time and qualified workers to label fairly large amounts of data. In this paper, we look into the problem of reducing the amount of labels without compromising the final segmentation performance. For robots operating in the field, pre-training networks in a supervised way is already a popular method to reduce the number of required labeled images. We investigate the possibility of pre-training in a self-supervised fashion using data from the target domain. To better exploit this data, we propose a set of domain-specific augmentation strategies. We evaluate our pre-training on semantic segmentation and leaf instance segmentation, two important tasks in our domain. The experimental results suggest that pre-training with domain-specific data paired with our data augmentation strategy leads to superior performance compared to commonly used pre-trainings. Furthermore, the pre-trained networks obtain similar performance to the fully supervised with less labeled data.

arxiv情報

著者 Gianmarco Roggiolani,Federico Magistri,Tiziano Guadagnino,Jan Weyler,Giorgio Grisetti,Cyrill Stachniss,Jens Behley
発行日 2023-03-22 12:10:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク