要約
明視野光学顕微鏡画像からの生細胞セグメンテーションは、画像の複雑さと生細胞の時間的変化のために困難である。最近開発されたディープラーニング(DL)ベースの手法は、その成功と有望な成果により、医療や顕微鏡画像のセグメンテーションタスクで人気を博した。本論文の主な目的は、明視野透過光顕微鏡におけるHeLa株の生細胞をセグメンテーションするための深層学習、U-Netに基づく方法を開発することである。我々のデータセットに最も適したアーキテクチャを見つけるために、残留注意U-Netを提案し、注意と単純なU-Netアーキテクチャと比較した。 注目機構は顕著な特徴を強調し、無関係な画像領域での活性化を抑制する。また、勾配が消失する問題を克服した。データセットに対するMean-IoUスコアは、単純U-Net、注意U-Net、残留注意U-Netでそれぞれ0.9505、0.9524、0.9530に達する。残差と注意のメカニズムを一緒に適用することで、Mean-IoUとDiceメトリクスにおいて最も正確な意味的セグメンテーション結果が達成された。この最も精度の高い残差注意のセマンティックセグメンテーション結果に対して、分水嶺法を適用したところ、各セルに固有の情報を持つセグメンテーションが得られた。
要約(オリジナル)
Living cell segmentation from bright-field light microscopy images is challenging due to the image complexity and temporal changes in the living cells. Recently developed deep learning (DL)-based methods became popular in medical and microscopy image segmentation tasks due to their success and promising outcomes. The main objective of this paper is to develop a deep learning, U-Net-based method to segment the living cells of the HeLa line in bright-field transmitted light microscopy. To find the most suitable architecture for our datasets, a residual attention U-Net was proposed and compared with an attention and a simple U-Net architecture. The attention mechanism highlights the remarkable features and suppresses activations in the irrelevant image regions. The residual mechanism overcomes with vanishing gradient problem. The Mean-IoU score for our datasets reaches 0.9505, 0.9524, and 0.9530 for the simple, attention, and residual attention U-Net, respectively. The most accurate semantic segmentation results was achieved in the Mean-IoU and Dice metrics by applying the residual and attention mechanisms together. The watershed method applied to this best — Residual Attention — semantic segmentation result gave the segmentation with the specific information for each cell.
arxiv情報
著者 | Ali Ghaznavi,Renata Rychtarikova,Mohammadmehdi Saberioon,Dalibor Stys |
発行日 | 2022-06-07 08:33:37+00:00 |
arxivサイト | arxiv_id(pdf) |