Scale-Space Hypernetworks for Efficient Biomedical Imaging

要約

畳み込みニューラル ネットワーク (CNN) は、さまざまな医用画像分析タスクに使用される主要なモデルです。
これらのモデルは推論時に、特に体積データの場合に大量の計算を要します。
原理的には、CNN アーキテクチャのダウンサンプル層とアップサンプル層でリスケーリング係数を操作することで、精度を犠牲にして計算効率を高めることができます。
ただし、精度と効率のトレードオフを適切に調査するには、既存のモデルでは法外なコストがかかります。
これに対処するために、さまざまな内部リスケーリング係数を使用して CNN のスペクトルを学習する手法である Scale-Space HyperNetworks (SSHN) を導入します。
単一の SSHN は、固定のリスケーリング係数を使用して多くの個別のネットワークをトレーニングした結果と一致し、場合によってはそれを超えるモデルのパレート精度効率曲線全体を特徴付けます。
いくつかの医用画像解析アプリケーションで提案されたアプローチを実証し、SSHN を固定および動的リスケーリング係数の両方を使用した戦略と比較します。
SSHN は、数分の 1 のトレーニング コストで精度と効率のトレードオフを一貫して提供していることがわかりました。
トレーニングされた SSHN を使用すると、ユーザーは推論時の特定のニーズに合わせて精度と計算効率のバランスを適切にとれる再スケーリング係数を迅速に選択できます。

要約(オリジナル)

Convolutional Neural Networks (CNNs) are the predominant model used for a variety of medical image analysis tasks. At inference time, these models are computationally intensive, especially with volumetric data. In principle, it is possible to trade accuracy for computational efficiency by manipulating the rescaling factor in the downsample and upsample layers of CNN architectures. However, properly exploring the accuracy-efficiency trade-off is prohibitively expensive with existing models. To address this, we introduce Scale-Space HyperNetworks (SSHN), a method that learns a spectrum of CNNs with varying internal rescaling factors. A single SSHN characterizes an entire Pareto accuracy-efficiency curve of models that match, and occasionally surpass, the outcomes of training many separate networks with fixed rescaling factors. We demonstrate the proposed approach in several medical image analysis applications, comparing SSHN against strategies with both fixed and dynamic rescaling factors. We find that SSHN consistently provides a better accuracy-efficiency trade-off at a fraction of the training cost. Trained SSHNs enable the user to quickly choose a rescaling factor that appropriately balances accuracy and computational efficiency for their particular needs at inference.

arxiv情報

著者 Jose Javier Gonzalez Ortiz,John Guttag,Adrian Dalca
発行日 2023-06-29 16:34:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク