要約
ほとんどのニューラル ネットワークは、入力画像に固定数のチャネル (RGB 画像の場合は 3) があることを前提としています。
ただし、機器や実験の目的に応じてチャネル数が変化する顕微鏡画像など、チャネル数が異なる設定も数多くあります。
しかし、チャネルの数と種類に対して不変のニューラル ネットワークを作成して評価する体系的な試みはこれまで行われていませんでした。
その結果、トレーニングされたモデルは個々の研究に固有のままであり、他の顕微鏡設定ではほとんど再利用できません。
この論文では、顕微鏡イメージングにおけるチャネル適応モデルを調査するためのベンチマークを紹介します。このベンチマークは、1) さまざまなチャネルの単一細胞画像のデータセット、2) 生物学的に関連した評価フレームワークで構成されます。
さらに、いくつかの既存の手法を適用してチャネル適応モデルを作成し、このベンチマークでのパフォーマンスを固定チャネルのベースライン モデルと比較しました。
チャネル適応モデルはドメイン外のタスクに対してより適切に一般化でき、計算効率が高いことがわかりました。
私たちは、将来の研究や応用における客観的な比較を容易にするために、厳選されたデータセット (https://doi.org/10.5281/zenodo.7988357) と評価 API (https://github.com/broadinstitute/MorphEm.git) を提供しています。
要約(オリジナル)
Most neural networks assume that input images have a fixed number of channels (three for RGB images). However, there are many settings where the number of channels may vary, such as microscopy images where the number of channels changes depending on instruments and experimental goals. Yet, there has not been a systemic attempt to create and evaluate neural networks that are invariant to the number and type of channels. As a result, trained models remain specific to individual studies and are hardly reusable for other microscopy settings. In this paper, we present a benchmark for investigating channel-adaptive models in microscopy imaging, which consists of 1) a dataset of varied-channel single-cell images, and 2) a biologically relevant evaluation framework. In addition, we adapted several existing techniques to create channel-adaptive models and compared their performance on this benchmark to fixed-channel, baseline models. We find that channel-adaptive models can generalize better to out-of-domain tasks and can be computationally efficient. We contribute a curated dataset (https://doi.org/10.5281/zenodo.7988357) and an evaluation API (https://github.com/broadinstitute/MorphEm.git) to facilitate objective comparisons in future research and applications.
arxiv情報
著者 | Zitong Chen,Chau Pham,Siqi Wang,Michael Doron,Nikita Moshkov,Bryan A. Plummer,Juan C. Caicedo |
発行日 | 2023-10-30 02:03:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google