BoxShrink: From Bounding Boxes to Segmentation Masks

要約

医用画像処理業界が直面している重要な課題の1つは、データサンプルのラベリングを高速かつ効率的に行うことである。セグメンテーションのための細かいラベルを得ることは、高価で、時間がかかり、高度なツールを必要とするため、特に要求が厳しい。一方、バウンディングボックスの適用は高速であり、細粒度のラベリングよりも大幅に時間がかからないが、詳細な結果を得ることはできない。そこで我々は、機械学習モデルを学習することなく、バウンディングボックスをセグメンテーションマスクに高速かつ頑健に変換する、弱い教師ありタスクのための新しいフレームワーク(BoxShrinkと名付ける)を提案する。提案するフレームワークは、高速なラベル変換を行うrapid-BoxShrinkと、より正確なラベル変換を行うrobust-BoxShrinkの2種類を提供する。大腸内視鏡画像データセットにおいて、BoxShrinkを用いた弱教師付き学習では、バウンディングボックス注釈のみを入力とした場合と比較して、複数のモデルで平均4%のIoUの向上が確認されています。提案したフレームワークのコードをオープンソース化し、オンラインで公開しました。

要約(オリジナル)

One of the core challenges facing the medical image computing community is fast and efficient data sample labeling. Obtaining fine-grained labels for segmentation is particularly demanding since it is expensive, time-consuming, and requires sophisticated tools. On the contrary, applying bounding boxes is fast and takes significantly less time than fine-grained labeling, but does not produce detailed results. In response, we propose a novel framework for weakly-supervised tasks with the rapid and robust transformation of bounding boxes into segmentation masks without training any machine learning model, coined BoxShrink. The proposed framework comes in two variants – rapid-BoxShrink for fast label transformations, and robust-BoxShrink for more precise label transformations. An average of four percent improvement in IoU is found across several models when being trained using BoxShrink in a weakly-supervised setting, compared to using only bounding box annotations as inputs on a colonoscopy image data set. We open-sourced the code for the proposed framework and published it online.

arxiv情報

著者 Michael Gröger,Vadim Borisov,Gjergji Kasneci
発行日 2022-08-05 13:07:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク