要約
粒子の局在化と分類は、計算顕微鏡法における 2 つの最も基本的な問題を構成します。
近年、これらのタスクに対して深層学習ベースのアプローチが導入され、大きな成功を収めています。
これらの教師あり学習法の主な欠点は、大規模なトレーニング データセットが必要であることです。通常、このデータセットは、透過型電子顕微鏡の物理学をシミュレートする複雑な数値順モデルと組み合わせた粒子モデルから生成されます。
このようなフォワード モデルのコンピューター実装は、計算に非常に要求が厳しく、適用範囲が制限されます。
この論文では、加法性ノイズとニューラル スタイル転送技術に基づいて電子顕微鏡の前方演算子をシミュレートする方法を提案します。
ベンチマークと同等のパフォーマンスを示す確立された最先端のアーキテクチャの 1 つを使用して、位置特定および分類タスクの方法を評価します。
以前のアプローチとは対照的に、私たちの方法はデータ生成プロセスを 750 倍高速化し、メモリ使用量を 33 分の 1 に抑え、一般的な透過型電子顕微鏡の検出器サイズに十分に対応します。
GPU アクセラレーションと並列処理を利用します。
これを使用して、任意の透過型電子顕微鏡からの参照データに従って合成トレーニング データ セットを適合させることができます。
ソース コードは https://gitlab.com/deepet/faket で入手できます。
要約(オリジナル)
Particle localization and -classification constitute two of the most fundamental problems in computational microscopy. In recent years, deep learning based approaches have been introduced for these tasks with great success. A key shortcoming of these supervised learning methods is their need for large training data sets, typically generated from particle models in conjunction with complex numerical forward models simulating the physics of transmission electron microscopes. Computer implementations of such forward models are computationally extremely demanding and limit the scope of their applicability. In this paper we propose a method for simulating the forward operator of an electron microscope based on additive noise and Neural Style Transfer techniques. We evaluate the method on localization and classification tasks using one of the established state-of-the-art architectures showing performance on par with the benchmark. In contrast to previous approaches, our method accelerates the data generation process by a factor of 750 while using 33 times less memory and scales well to typical transmission electron microscope detector sizes. It utilizes GPU acceleration and parallel processing. It can be used to adapt a synthetic training data set according to reference data from any transmission electron microscope. The source code is available at https://gitlab.com/deepet/faket.
arxiv情報
著者 | Pavol Harar,Lukas Herrmann,Philipp Grohs,David Haselbach |
発行日 | 2023-07-18 14:45:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google