Panoptic One-Click Segmentation: Applied to Agricultural Data

要約

雑草防除において、精密農業は除草剤の使用を大幅に削減するのに役立ち、経済的および環境的利益の両方をもたらします。
重要な要素は、画像データからすべての植物を見つけてセグメント化する機能です。
最新のインスタンスセグメンテーション技術でこれを達成できますが、そのようなシステムをトレーニングするには、手動でラベル付けされた大量のデータが必要であり、取得するのに費用と労力がかかります。
教師付きの弱いトレーニングは、ラベル付けの労力とコストを大幅に削減するのに役立ちます。
パノプティック ワンクリック セグメンテーションを提案します。これは、クリック入力から疑似ラベルを生成する効率的で正確なオフライン ツールであり、ラベリングの労力を軽減します。
私たちのアプローチは、シーン内のすべての N 個のオブジェクトのピクセル単位の位置を共同で推定します。これは、すべての N 個のオブジェクトを個別に反復する従来のアプローチとは異なります。
これにより、トレーニング時間が大幅に短縮されます。
データのわずか 10% を使用してパノプティック ワンクリック セグメンテーション アプローチをトレーニングすると、挑戦的なテンサイとトウモロコシの画像データでそれぞれ 68.1% と 68.8% の平均オブジェクト交差オーバー ユニオン (IoU) が得られ、従来のワンクリック アプローチに匹敵するパフォーマンスが得られます。
約 12 倍速くトレーニングできます。
残りの 90% のデータのクリックから疑似ラベルを生成することにより、システムの適用性を実証します。
次に、これらの疑似ラベルを使用して半教師あり方式でマスク R-CNN をトレーニングし、絶対パフォーマンス (平均前景 IoU) をテンサイとトウモロコシのデータでそれぞれ 9.4 ポイントと 7.9 ポイント改善します。
最後に、従来のアプローチよりも優れた利点を概説する注釈中に、私たちの手法が見逃したクリックを回復できることを示します。

要約(オリジナル)

In weed control, precision agriculture can help to greatly reduce the use of herbicides, resulting in both economical and ecological benefits. A key element is the ability to locate and segment all the plants from image data. Modern instance segmentation techniques can achieve this, however, training such systems requires large amounts of hand-labelled data which is expensive and laborious to obtain. Weakly supervised training can help to greatly reduce labelling efforts and costs. We propose panoptic one-click segmentation, an efficient and accurate offline tool to produce pseudo-labels from click inputs which reduces labelling effort. Our approach jointly estimates the pixel-wise location of all N objects in the scene, compared to traditional approaches which iterate independently through all N objects; this greatly reduces training time. Using just 10% of the data to train our panoptic one-click segmentation approach yields 68.1% and 68.8% mean object intersection over union (IoU) on challenging sugar beet and corn image data respectively, providing comparable performance to traditional one-click approaches while being approximately 12 times faster to train. We demonstrate the applicability of our system by generating pseudo-labels from clicks on the remaining 90% of the data. These pseudo-labels are then used to train Mask R-CNN, in a semi-supervised manner, improving the absolute performance (of mean foreground IoU) by 9.4 and 7.9 points for sugar beet and corn data respectively. Finally, we show that our technique can recover missed clicks during annotation outlining a further benefit over traditional approaches.

arxiv情報

著者 Patrick Zimmer,Michael Halstead,Chris McCool
発行日 2023-03-15 15:20:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク