要約
シネ磁気共鳴画像法(MRI)の時間的フレームを正確にセグメント化することは、さまざまなリアルタイムMRIガイド下心臓介入における重要なステップです。
高速で正確な視覚的支援を実現するには、セグメンテーションフレームワークの最大遅延と最小スループットに厳しい要件があります。
このタスクの最先端のニューラルネットワークは、高精度を達成しながらこれらの制約を満たすためにほとんど手作りされています。
一方、既存の文献では、さまざまな医療アプリケーションに最適なニューラルアーキテクチャを自動的に特定する際のニューラルアーキテクチャ検索(NAS)の能力が実証されていますが、ほとんどの場合、精度によって導かれ、計算が複雑になることもあり、リアルタイムの重要性もあります。
制約は見落とされています。
主な課題は、そのような制約が微分不可能であり、したがって広く使用されている微分可能なNASフレームワークと互換性がないことです。
このホワイトペーパーでは、RT-DNASという名前の差別化可能なNASフレームワークでリアルタイムの制約を直接処理する戦略を紹介します。
拡張された2017MICCAIACDCデータセットでの実験は、最新の手動および自動で設計されたアーキテクチャと比較して、RT-DNASは、リアルタイムの制約を満たしながら、より高い精度でアーキテクチャを識別できることを示しています。
要約(オリジナル)
Accurately segmenting temporal frames of cine magnetic resonance imaging (MRI) is a crucial step in various real-time MRI guided cardiac interventions. To achieve fast and accurate visual assistance, there are strict requirements on the maximum latency and minimum throughput of the segmentation framework. State-of-the-art neural networks on this task are mostly hand-crafted to satisfy these constraints while achieving high accuracy. On the other hand, while existing literature have demonstrated the power of neural architecture search (NAS) in automatically identifying the best neural architectures for various medical applications, they are mostly guided by accuracy, sometimes with computation complexity, and the importance of real-time constraints are overlooked. A major challenge is that such constraints are non-differentiable and are thus not compatible with the widely used differentiable NAS frameworks. In this paper, we present a strategy that directly handles real-time constraints in a differentiable NAS framework named RT-DNAS. Experiments on extended 2017 MICCAI ACDC dataset show that compared with state-of-the-art manually and automatically designed architectures, RT-DNAS is able to identify ones with better accuracy while satisfying the real-time constraints.
arxiv情報
著者 | Qing Lu,Xiaowei Xu,Shunjie Dong,Cong Hao,Lei Yang,Cheng Zhuo,Yiyu Shi |
発行日 | 2022-06-13 09:53:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google