要約
教師あり深層学習アプローチでは、2 つの画像解像度またはモダリティ間のマッピングを学習することで、顕微鏡画像の解像度を人為的に高めることができます。
ただし、このような方法では、多くの場合、入手が困難な低解像度/高解像度画像のペアの大規模なセットが必要となり、解像度が適度に向上した合成画像が生成されます。
逆に、GAN 潜在検索に基づく最近の方法では、ペア画像を必要とせずに解像度が大幅に向上しました。
ただし、高解像度画像の解釈可能な特徴の再構成には限界があります。
ここでは、正規化潜在探索 (RLS) に基づく堅牢な超解像手法を提案します。この手法は、事前分布が与えられた場合に、グラウンドトゥルースへの忠実性と復元画像のリアリズムとの間の実用的なバランスを提供します。
後者では、低解像度画像の分析を、深層学習によって実行される計算による超解像度タスクと、その後に手作りのアルゴリズムによって実行され、解釈可能な生物学的特徴に基づいて実行される定量化タスクに分割することができます。
この 2 段階のプロセスは、モバイル デバイスでの診断などのさまざまなアプリケーションに応用できる可能性を秘めています。主な目的は、特定のサンプルの高解像度の詳細を復元することではなく、条件間の説明可能かつ定量化可能な差異を保存した高解像度画像を取得することです。
。
要約(オリジナル)
Supervised deep learning approaches can artificially increase the resolution of microscopy images by learning a mapping between two image resolutions or modalities. However, such methods often require a large set of hard-to-get low-res/high-res image pairs and produce synthetic images with a moderate increase in resolution. Conversely, recent methods based on GAN latent search offered a drastic increase in resolution without the need of paired images. However, they offer limited reconstruction of the high-resolution image interpretable features. Here, we propose a robust super-resolution method based on regularized latent search~(RLS) that offers an actionable balance between fidelity to the ground-truth and realism of the recovered image given a distribution prior. The latter allows to split the analysis of a low-resolution image into a computational super-resolution task performed by deep learning followed by a quantification task performed by a handcrafted algorithm and based on interpretable biological features. This two-step process holds potential for various applications such as diagnostics on mobile devices, where the main aim is not to recover the high-resolution details of a specific sample but rather to obtain high-resolution images that preserve explainable and quantifiable differences between conditions.
arxiv情報
著者 | Marzieh Gheisari,Auguste Genovesio |
発行日 | 2024-05-29 14:20:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google