要約
顕微鏡画像の自動解析は、単一細胞の追跡と定量化の文脈では課題である。本研究では、顕微鏡画像のセグメンテーションに対するディープラーニングの性能の研究と、単一細胞のトラッキングのための従来からあるパイプラインの改良を目標としている。ディープラーニング技術、主に畳み込みニューラルネットワークは、細胞のセグメンテーション問題に適用され、高い精度と高速な性能を示しています。画像セグメンテーションを行うために、U-Netアーキテクチャを用いた畳み込みニューラルネットワークを実装するために、ハイパーパラメータの解析を行った。さらに、ネットワークのサイズと学習可能なパラメータの数を最適化するために、異なるモデルを構築した。学習されたネットワークは、マイクロ流体デバイス内のトラップの位置特定、トラップ画像の画像分割、単一細胞の蛍光強度と面積の経時変化を評価するパイプラインで使用されます。実験中の細胞の追跡は、セントロイド推定やウォーターシェッドなどの画像処理アルゴリズムによって行われる。最終的に、単一細胞をセグメント化するニューラルネットワークとパイプラインのすべての改良により、6.20GBのデータを4分で処理する準リアルタイム画像解析が可能となった。
要約(オリジナル)
The automated analysis of microscopy images is a challenge in the context of single-cell tracking and quantification. This work has as goals the study of the performance of deep learning for segmenting microscopy images and the improvement of the previously available pipeline for tracking single cells. Deep learning techniques, mainly convolutional neural networks, have been applied to cell segmentation problems and have shown high accuracy and fast performance. To perform the image segmentation, an analysis of hyperparameters was done in order to implement a convolutional neural network with U-Net architecture. Furthermore, different models were built in order to optimize the size of the network and the number of learnable parameters. The trained network is then used in the pipeline that localizes the traps in a microfluidic device, performs the image segmentation on trap images, and evaluates the fluorescence intensity and the area of single cells over time. The tracking of the cells during an experiment is performed by image processing algorithms, such as centroid estimation and watershed. Finally, with all improvements in the neural network to segment single cells and in the pipeline, quasi-real-time image analysis was enabled, where 6.20GB of data was processed in 4 minutes.
arxiv情報
著者 | André O. Françani |
発行日 | 2022-10-04 11:48:59+00:00 |
arxivサイト | arxiv_id(pdf) |