要約
トマトの温室では、選択収穫や葉落としなどの労働集約的な作業を自動化するためにロボットの使用が増えています。
これらのタスクを実行するには、他の植物の部分からの高度な遮蔽にもかかわらず、ロボットは切断する必要がある植物の節を正確かつ効率的に認識できなければなりません。
この問題は、ロボットがオクルージョンを克服して知覚の質を向上させるために効率的なカメラ視点のセットを計画する必要がある、ローカルの次善のビュー (NBV) 計画タスクとして定式化されます。
私たちの定式化は、単一のターゲット ノードの認識精度を迅速に向上させ、切断される可能性を最大化することに重点を置いています。
これまでの NBV 計画方法は、主にグローバル ビュー計画に焦点を当て、探索には候補視点のランダム サンプリングを使用していましたが、これにより、高い計算コスト、不十分な候補による非効率的なビュー選択、または非効率なサンプリングによる非滑らかな軌道が発生する可能性がありました。
我々は、差分光線サンプリングを使用した勾配ベースの NBV プランナーを提案します。これは、オクルージョンを克服して知覚を改善するための視点計画のための局所的な勾配方向を直接推定します。
シミュレーション実験を通じて、私たちのプランナーがオクルージョンを処理し、サンプリング ベースの NBV プランナーと同等にノードの 3D 再構成と位置推定を向上させると同時に、計算量が 10 分の 1 に減り、28% 効率の高い軌道を生成できることを示しました。
要約(オリジナル)
Robots are increasingly used in tomato greenhouses to automate labour-intensive tasks such as selective harvesting and de-leafing. To perform these tasks, robots must be able to accurately and efficiently perceive the plant nodes that need to be cut, despite the high levels of occlusion from other plant parts. We formulate this problem as a local next-best-view (NBV) planning task where the robot has to plan an efficient set of camera viewpoints to overcome occlusion and improve the quality of perception. Our formulation focuses on quickly improving the perception accuracy of a single target node to maximise its chances of being cut. Previous methods of NBV planning mostly focused on global view planning and used random sampling of candidate viewpoints for exploration, which could suffer from high computational costs, ineffective view selection due to poor candidates, or non-smooth trajectories due to inefficient sampling. We propose a gradient-based NBV planner using differential ray sampling, which directly estimates the local gradient direction for viewpoint planning to overcome occlusion and improve perception. Through simulation experiments, we showed that our planner can handle occlusions and improve the 3D reconstruction and position estimation of nodes equally well as a sampling-based NBV planner, while taking ten times less computation and generating 28% more efficient trajectories.
arxiv情報
著者 | Akshay K. Burusa,Eldert J. van Henten,Gert Kootstra |
発行日 | 2024-04-29 15:21:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google