要約
2D正面OCTAから血管構造を抽出するための深層学習技術を使用する研究が増えていますが、そのようなアプローチでは、網膜血管系のような曲線構造のデータ注釈プロセスは非常にコストと時間がかかることが知られています。
注釈の問題に対処しようとした人はほとんどいませんでしたが。
この作業では、ピクセルレベルの注釈を自動化するための落書きベースの弱く監視された学習方法の適用を提案します。
OCTAveと呼ばれる提案された方法は、敵対者と新しい自己監視の深い監視で補強された落書き注釈付きグラウンドトゥルースを使用した弱教師あり学習を組み合わせたものです。
私たちの新しいメカニズムは、UNetのようなアーキテクチャの識別層からの識別出力を利用するように設計されており、トレーニング中に、集約識別出力とセグメンテーションマップ述語の間のカルバックライブラー発散が最小化されます。
この組み合わせた方法は、我々の実験で示されているように、血管構造のより良い局在化につながります。
大規模な公開データセット(ROSE、OCTA-500)で提案された方法を検証します。
セグメンテーションのパフォーマンスは、最先端の完全に監視されたアプローチと落書きベースの弱く監視されたアプローチの両方と比較されます。
実験で使用した作業の実装は[LINK]にあります。
要約(オリジナル)
While there have been increased researches using deep learning techniques for the extraction of vascular structure from the 2D en face OCTA, for such approach, it is known that the data annotation process on the curvilinear structure like the retinal vasculature is very costly and time consuming, albeit few tried to address the annotation problem. In this work, we propose the application of the scribble-base weakly-supervised learning method to automate the pixel-level annotation. The proposed method, called OCTAve, combines the weakly-supervised learning using scribble-annotated ground truth augmented with an adversarial and a novel self-supervised deep supervision. Our novel mechanism is designed to utilize the discriminative outputs from the discrimination layer of a UNet-like architecture where the Kullback-Liebler Divergence between the aggregate discriminative outputs and the segmentation map predicate is minimized during the training. This combined method leads to the better localization of the vascular structure as shown in our experiments. We validate our proposed method on the large public datasets i.e., ROSE, OCTA-500. The segmentation performance is compared against both state-of-the-art fully-supervised and scribble-based weakly-supervised approaches. The implementation of our work used in the experiments is located at [LINK].
arxiv情報
著者 | Amrest Chinkamol,Vetit Kanjaras,Phattarapong Sawangjai,Yitian Zhao,Thapanun Sudhawiyangkul,Chantana Chantrapornchai,Cuntai Guan,Theerawit Wilaiprasitporn |
発行日 | 2022-07-25 14:40:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google