要約
タイトル:FakET:ニューラルスタイルトランスファーによるクライオ電子トモグラムのシミュレーション
要約:
– 計算機顕微鏡における粒子のローカリゼーションと分類は、計算機顕微鏡における物理的シミュレーションを分析する複雑な数値モデルを使用して生成される大規模なトレーニングデータセットが必要な監視学習アプローチを用いて成功してきました。
– 一方、本論文では、ニューラルスタイルトランスファー技術と加算ノイズに基づいて、電子顕微鏡のフォワード演算子をシミュレートするシンプルな方法を提案します。
– この方法は、既存の最新のアーキテクチャでのローカリゼーションと分類のタスクで評価され、ベンチマークと同等のパフォーマンスを示しました。
– この方法は、従来の方法と比較して、データ生成プロセスを750倍加速し、33倍少ないメモリを使用し、一般的な電子顕微鏡検出器サイズにスケールすることができます。
– この方法は、GPUアクセラレーションと並列処理を使用し、トレーニングデータセットを適応させる単独の方法またはデータ拡張技術として使用できます。
– ソースコードはhttps://gitlab.com/deepet/faketで利用可能です。
要約(オリジナル)
Particle localization and -classification constitute two of the most fundamental problems in computational microscopy. In recent years, deep learning based approaches have been introduced for these tasks with great success. A key shortcoming of these supervised learning methods is their need for large training data sets, typically generated from particle models in conjunction with complex numerical forward models simulating the physics of transmission electron microscopes. Computer implementations of such forward models are computationally extremely demanding and limit the scope of their applicability. In this paper we propose a simple method for simulating the forward operator of an electron microscope based on additive noise and Neural Style Transfer techniques. We evaluate the method on localization and classification tasks using one of the established state-of-the-art architectures showing performance on par with the benchmark. In contrast to previous approaches, our method accelerates the data generation process by a factor of 750 while using 33 times less memory and scales well to typical transmission electron microscope detector sizes. It utilizes GPU acceleration and parallel processing. It can be used as a stand-alone method to adapt a training data set or as a data augmentation technique. The source code is available at https://gitlab.com/deepet/faket.
arxiv情報
著者 | Pavol Harar,Lukas Herrmann,Philipp Grohs,David Haselbach |
発行日 | 2023-04-04 17:59:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI