要約
フーリエ タイコグラフィー顕微鏡法 (FPM) は、従来の顕微鏡の空間帯域幅積 (SBP) に対する従来の制限を計算手段によって克服するイメージング手順です。
低開口数 (NA) の対物レンズを使用してキャプチャされた複数の画像を利用し、周波数領域のスティッチングにより高解像度の位相イメージングを可能にします。
既存の FPM 再構成手法は、フォワード イメージング モデルの物理学に基づく反復最適化ベースの手法と、一般にフィード フォワード ディープ ラーニング フレームワークを使用するデータ駆動型手法の 2 つの手法に大きく分類できます。
フォワードイメージングシステムの知識と深いデータ駆動型ネットワークを組み合わせたハイブリッドモデル駆動型残差ネットワークを提案します。
私たちが提案するアーキテクチャ LWGNet は、従来の Wirtinger フロー最適化アルゴリズムを、複雑な畳み込みブロックを介して勾配画像を強化する新しいニューラル ネットワーク設計に展開します。
他の従来のアンローリング技術とは異なり、LWGNet は、特に低コストで低ダイナミック レンジの CMOS センサーの場合、既存の従来の深層学習技術と同等またはそれ以上のパフォーマンスを発揮しながら、より少ないステージを使用します。
低ビット深度と低コストのセンサーのパフォーマンスのこの改善により、FPM イメージング設定のコストが大幅に削減される可能性があります。
最後に、収集した実際のデータのパフォーマンスが一貫して向上していることを示しています。
要約(オリジナル)
Fourier Ptychographic Microscopy (FPM) is an imaging procedure that overcomes the traditional limit on Space-Bandwidth Product (SBP) of conventional microscopes through computational means. It utilizes multiple images captured using a low numerical aperture (NA) objective and enables high-resolution phase imaging through frequency domain stitching. Existing FPM reconstruction methods can be broadly categorized into two approaches: iterative optimization based methods, which are based on the physics of the forward imaging model, and data-driven methods which commonly employ a feed-forward deep learning framework. We propose a hybrid model-driven residual network that combines the knowledge of the forward imaging system with a deep data-driven network. Our proposed architecture, LWGNet, unrolls traditional Wirtinger flow optimization algorithm into a novel neural network design that enhances the gradient images through complex convolutional blocks. Unlike other conventional unrolling techniques, LWGNet uses fewer stages while performing at par or even better than existing traditional and deep learning techniques, particularly, for low-cost and low dynamic range CMOS sensors. This improvement in performance for low-bit depth and low-cost sensors has the potential to bring down the cost of FPM imaging setup significantly. Finally, we show consistently improved performance on our collected real data.
arxiv情報
著者 | Atreyee Saha,Salman S Khan,Sagar Sehrawat,Sanjana S Prabhu,Shanti Bhattacharya,Kaushik Mitra |
発行日 | 2022-08-16 14:49:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google