要約
画像に基づく自動的な重症度推定には,一般に離散的な(すなわち,量子化された)重症度ラベルが使用される.しかし、重症度が曖昧な画像の場合、離散的なラベルにアノテーションを付けることは困難な場合が多い。そこで、画像ペア間の重症度を比較する相対的なアノテーションを用いることで、より簡単に重症度を推定することができる。相対的アノテーションを用いた学習-順位付けのフレームワークを用いることで、深刻度レベルに対して相対的な順位スコアを推定するニューラルネットワークを学習させることができます。しかし、全ての可能なペアに対する相対アノテーションは法外であるため、適切なサンプルペアの選択が必須である。本論文では、相対的アノテーションのために適切なペアを自動的に選択しながらベイズ畳み込みニューラルネットワークを学習させる、ディープベイズ型active-learning-to-rankを提案する。潰瘍性大腸炎の内視鏡画像を用いた実験により、提案手法の効率性を確認した。また、マイナークラスからのサンプルを自動選択できるため、クラスのアンバランスが激しい場合でも本手法が有用であることを確認した。
要約(オリジナル)
Automatic image-based disease severity estimation generally uses discrete (i.e., quantized) severity labels. Annotating discrete labels is often difficult due to the images with ambiguous severity. An easier alternative is to use relative annotation, which compares the severity level between image pairs. By using a learning-to-rank framework with relative annotation, we can train a neural network that estimates rank scores that are relative to severity levels. However, the relative annotation for all possible pairs is prohibitive, and therefore, appropriate sample pair selection is mandatory. This paper proposes a deep Bayesian active-learning-to-rank, which trains a Bayesian convolutional neural network while automatically selecting appropriate pairs for relative annotation. We confirmed the efficiency of the proposed method through experiments on endoscopic images of ulcerative colitis. In addition, we confirmed that our method is useful even with the severe class imbalance because of its ability to select samples from minor classes automatically.
arxiv情報
| 著者 | Takeaki Kadota,Hideaki Hayashi,Ryoma Bise,Kiyohito Tanaka,Seiichi Uchida |
| 発行日 | 2022-08-05 07:22:08+00:00 |
| arxivサイト | arxiv_id(pdf) |