SELMA3D challenge: Self-supervised learning for 3D light-sheet microscopy image segmentation

要約

ライトシート顕微鏡における最近の技術革新と、組織除去技術の開発により、細胞解像度での大型哺乳類組織の 3D イメージングが可能になりました。
深層学習による大規模データ分析の進歩と組み合わせることで、これらのイノベーションにより、研究者は多様な生体サンプルの形態学的および機能的特性を迅速に調査できるようになります。
分析プロセスの重要な準備ステップであるセグメンテーションは、専門家レベルのパフォーマンスを備えたドメイン固有の深層学習モデルを使用して自動化できます。
ただし、これらのモデルはドメインのシフトに対して高い感度を示すため、トレーニング分布外のデータに適用すると精度が大幅に低下します。
この制限に対処するために、一般化可能なモデルのトレーニングにおける自己教師あり学習の最近の成功に触発されて、私たちは MICCAI 2024 カンファレンス中に SELMA3D チャレンジを開催しました。
SELMA3D は、クリアされたマウスと人間の脳からのライトシート画像の膨大なコレクションを提供します。これは、微調整、予備テスト、最終テスト用に、それぞれ 1000^3 ボクセルを超える 35 個の大きな 3D 画像と、注釈付きの 315 個の小さなパッチで構成されています。
このデータセットには、血管状構造やスポット状構造など、多様な生物学的構造が含まれています。
5 つのチームがこの課題のすべてのフェーズに参加し、提案された手法がこのホワイトペーパーでレビューされています。
ほとんどの参加チームからの定量的および定性的結果は、大規模なデータセットに対する自己教師あり学習によりセグメンテーション モデルのパフォーマンスと一般化が向上することを示しています。
当社は、3D 顕微鏡画像セグメンテーションの自己教師あり学習に焦点を当てた最初の MICCAI チャレンジとして、SELMA3D のサポートと拡張を継続していきます。

要約(オリジナル)

Recent innovations in light sheet microscopy, paired with developments in tissue clearing techniques, enable the 3D imaging of large mammalian tissues with cellular resolution. Combined with the progress in large-scale data analysis, driven by deep learning, these innovations empower researchers to rapidly investigate the morphological and functional properties of diverse biological samples. Segmentation, a crucial preliminary step in the analysis process, can be automated using domain-specific deep learning models with expert-level performance. However, these models exhibit high sensitivity to domain shifts, leading to a significant drop in accuracy when applied to data outside their training distribution. To address this limitation, and inspired by the recent success of self-supervised learning in training generalizable models, we organized the SELMA3D Challenge during the MICCAI 2024 conference. SELMA3D provides a vast collection of light-sheet images from cleared mice and human brains, comprising 35 large 3D images-each with over 1000^3 voxels-and 315 annotated small patches for finetuning, preliminary testing and final testing. The dataset encompasses diverse biological structures, including vessel-like and spot-like structures. Five teams participated in all phases of the challenge, and their proposed methods are reviewed in this paper. Quantitative and qualitative results from most participating teams demonstrate that self-supervised learning on large datasets improves segmentation model performance and generalization. We will continue to support and extend SELMA3D as an inaugural MICCAI challenge focused on self-supervised learning for 3D microscopy image segmentation.

arxiv情報

著者 Ying Chen,Rami Al-Maskari,Izabela Horvath,Mayar Ali,Luciano Höher,Kaiyuan Yang,Zengming Lin,Zhiwei Zhai,Mengzhe Shen,Dejin Xun,Yi Wang,Tony Xu,Maged Goubran,Yunheng Wu,Ali Erturk,Johannes C. Paetzold
発行日 2025-01-07 15:43:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク