要約
バーチャル染色は、未染色画像または異なる染色画像からデジタル的に染色画像を生成することで、従来の染色手順を合理化します。
従来の染色方法には時間のかかる化学プロセスが含まれますが、仮想染色は効率的で低インフラストラクチャの代替手段を提供します。
共焦点顕微鏡などの顕微鏡ベースの技術を活用することで、研究者は物理的な切片作成を必要とせずに組織分析を迅速に行うことができます。
しかし、従来の組織学的染色画像に慣れている病理学者や外科医にとって、グレースケールまたは疑似カラーの顕微鏡画像を解釈することは依然として課題です。
このギャップを埋めるために、さまざまな研究が、標的の組織学的染色を模倣する染色をデジタル的にシミュレートすることを研究しています。
この論文では、仮想染色タスク用に特別に設計された新しいネットワーク In-and-Out Net を紹介します。
このモデルは、敵対的生成ネットワーク (GAN) に基づいて、反射共焦点顕微鏡 (RCM) 画像をヘマトキシリン エオシン (H&E) 染色画像に効率的に変換します。
皮膚組織の塩化アルミニウム前処理を使用して、RCM 画像の核コントラストを強調します。
2 つの蛍光チャネルを特徴とする仮想 H&E ラベルを使用してモデルをトレーニングすると、画像の位置合わせの必要がなくなり、ピクセル レベルのグラウンド トゥルースが得られます。
私たちの貢献には、最適なトレーニング戦略の提案、最先端のパフォーマンスを実証する比較分析の実施、アブレーションスタディによるモデルの検証、登録なしで完全に一致する入力画像とグラウンドトゥルース画像の収集が含まれます。
In-and-Out Net は有望な結果を示し、仮想染色タスクに貴重なツールを提供し、組織学的画像解析の分野を進歩させます。
要約(オリジナル)
Virtual staining streamlines traditional staining procedures by digitally generating stained images from unstained or differently stained images. While conventional staining methods involve time-consuming chemical processes, virtual staining offers an efficient and low infrastructure alternative. Leveraging microscopy-based techniques, such as confocal microscopy, researchers can expedite tissue analysis without the need for physical sectioning. However, interpreting grayscale or pseudo-color microscopic images remains a challenge for pathologists and surgeons accustomed to traditional histologically stained images. To fill this gap, various studies explore digitally simulating staining to mimic targeted histological stains. This paper introduces a novel network, In-and-Out Net, specifically designed for virtual staining tasks. Based on Generative Adversarial Networks (GAN), our model efficiently transforms Reflectance Confocal Microscopy (RCM) images into Hematoxylin and Eosin (H&E) stained images. We enhance nuclei contrast in RCM images using aluminum chloride preprocessing for skin tissues. Training the model with virtual H\&E labels featuring two fluorescence channels eliminates the need for image registration and provides pixel-level ground truth. Our contributions include proposing an optimal training strategy, conducting a comparative analysis demonstrating state-of-the-art performance, validating the model through an ablation study, and collecting perfectly matched input and ground truth images without registration. In-and-Out Net showcases promising results, offering a valuable tool for virtual staining tasks and advancing the field of histological image analysis.
arxiv情報
著者 | Mengkun Chen,Yen-Tung Liu,Fadeel Sher Khan,Matthew C. Fox,Jason S. Reichenberg,Fabiana C. P. S. Lopes,Katherine R. Sebastian,Mia K. Markey,James W. Tunnell |
発行日 | 2024-11-22 16:59:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google