要約
モバイルロボットは、持続可能な農業への移行において重要な役割を果たすでしょう。
植物の状態を自律的かつ効果的に監視するには、農業環境の特徴である急速な変化に強い視覚認識機能をロボットに装備する必要があります。
この論文では、ブドウ畑で移動ロボットによって収集された画像からブドウの房をセグメント化するという困難なタスクに焦点を当てます。
これに関連して、インスタンスのセグメンテーションタスクに外科的微調整を適用した最初の研究を紹介します。
特定のモデル層のみを選択的に調整することで、視覚領域のシフトを導入する新しく収集されたブドウ画像への事前トレーニング済み深層学習モデルの適応をサポートしながら、調整されるパラメーターの数を大幅に削減する方法を示します。
要約(オリジナル)
Mobile robots will play a crucial role in the transition towards sustainable agriculture. To autonomously and effectively monitor the state of plants, robots ought to be equipped with visual perception capabilities that are robust to the rapid changes that characterise agricultural settings. In this paper, we focus on the challenging task of segmenting grape bunches from images collected by mobile robots in vineyards. In this context, we present the first study that applies surgical fine-tuning to instance segmentation tasks. We show how selectively tuning only specific model layers can support the adaptation of pre-trained Deep Learning models to newly-collected grape images that introduce visual domain shifts, while also substantially reducing the number of tuned parameters.
arxiv情報
著者 | Agnese Chiatti,Riccardo Bertoglio,Nico Catalano,Matteo Gatti,Matteo Matteucci |
発行日 | 2023-07-03 08:20:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google