要約
ディープ ラーニングは、基本的な画像分析タスクであるセマンティック セグメンテーションに特に役立つことが証明されています。
ただし、標準的な深層学習の方法では、グラウンド トゥルースのピクセル単位の注釈を含む多くのトレーニング画像が必要です。これは通常、取得するのに手間がかかり、場合によっては (医療画像など)、ドメインの専門知識が必要になります。
したがって、ピクセル単位の注釈の代わりに、取得がはるかに簡単でありながら有益な画像注釈、つまり前景オブジェクトのサイズに焦点を当てます。
オブジェクトのサイズを、前景と最も近い背景ピクセル間の最大チェビシェフ距離として定義します。
いくつかのピクセル単位の注釈付き画像と既知のオブジェクト サイズを持つ多くの画像のデータセットからディープ セグメンテーション ネットワークをトレーニングするためのアルゴリズムを提案します。
このアルゴリズムは、勾配をサンプリングしてから標準の逆伝播アルゴリズムを使用することにより、オブジェクト サイズに対して定義された離散 (微分不可能な) 損失関数を最小化します。
実験は、新しいアプローチがセグメンテーションのパフォーマンスを向上させることを示しています。
要約(オリジナル)
Deep learning has proved particularly useful for semantic segmentation, a fundamental image analysis task. However, the standard deep learning methods need many training images with ground-truth pixel-wise annotations, which are usually laborious to obtain and, in some cases (e.g., medical images), require domain expertise. Therefore, instead of pixel-wise annotations, we focus on image annotations that are significantly easier to acquire but still informative, namely the size of foreground objects. We define the object size as the maximum Chebyshev distance between a foreground and the nearest background pixel. We propose an algorithm for training a deep segmentation network from a dataset of a few pixel-wise annotated images and many images with known object sizes. The algorithm minimizes a discrete (non-differentiable) loss function defined over the object sizes by sampling the gradient and then using the standard back-propagation algorithm. Experiments show that the new approach improves the segmentation performance.
arxiv情報
著者 | Denis Baručić,Jan Kybic |
発行日 | 2022-08-29 09:11:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google