要約
我々は、点とピクセルの両方の輪郭表現を共同学習することでグラフと高密度セグメンテーション技術を組み合わせ、それによってそれぞれのアプローチの利点を活用する新しい方法論を提案します。
これにより、目的の位置がずれていると、ネットワークによる頂点と輪郭の識別特徴の学習が制限されるという、一般的なグラフ セグメンテーション手法の欠陥が解決されます。
私たちの共同学習戦略により、豊富で多様な意味論的特徴をエンコードできると同時に、ピクセルレベルの目標が解剖学的にありえないトポロジーにつながる可能性がある、密集ベースのアプローチにおける一般的な輪郭安定性の問題が軽減されます。
さらに、等高線境界に該当する正しい予測がペナルティを受けるシナリオを特定し、新しいハイブリッド等高線距離損失でこれに対処します。
私たちのアプローチはいくつかの胸部 X 線データセットで検証されており、さまざまな密集ベースおよびポイントベースの方法に対してセグメンテーションの安定性と精度が明らかに向上していることが実証されています。
私たちのソース コードは、www.github.com/kitbransby/Joint_Graph_Segmentation から無料で入手できます。
要約(オリジナル)
We present a novel methodology that combines graph and dense segmentation techniques by jointly learning both point and pixel contour representations, thereby leveraging the benefits of each approach. This addresses deficiencies in typical graph segmentation methods where misaligned objectives restrict the network from learning discriminative vertex and contour features. Our joint learning strategy allows for rich and diverse semantic features to be encoded, while alleviating common contour stability issues in dense-based approaches, where pixel-level objectives can lead to anatomically implausible topologies. In addition, we identify scenarios where correct predictions that fall on the contour boundary are penalised and address this with a novel hybrid contour distance loss. Our approach is validated on several Chest X-ray datasets, demonstrating clear improvements in segmentation stability and accuracy against a variety of dense- and point-based methods. Our source code is freely available at: www.github.com/kitbransby/Joint_Graph_Segmentation
arxiv情報
著者 | Kit Mills Bransby,Greg Slabaugh,Christos Bourantas,Qianni Zhang |
発行日 | 2023-06-21 10:07:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google