要約
私たちは、テンソル分解によるネットワーク圧縮の有効性を研究することで、高度な深層学習セグメンテーション モデルを臨床現場に展開する際の計算上の障壁に対処します。
私たちは、セグメンテーションの精度を損なうことなく、既存のモデルの分解を可能にして計算要件を削減できる、トレーニング後のタッカー分解を提案します。
私たちはタッカー分解を TotalSegmentator (TS) モデルの畳み込みカーネルに適用しました。このモデルは、117 の解剖学的構造の自動セグメンテーション用に包括的なデータセットでトレーニングされた nnU-Net モデルです。
私たちのアプローチは、推論中に必要な浮動小数点演算 (FLOP) とメモリを削減し、計算効率とセグメンテーション品質の間で調整可能なトレードオフを提供します。
この研究では、公開されている TS データセットを利用し、さまざまなダウンサンプリング係数を使用して、モデル サイズ、推論速度、セグメンテーション パフォーマンスの関係を調査しました。
タッカー分解を TS モデルに適用すると、セグメンテーション精度の低下を限定しながら、さまざまな圧縮率にわたってモデル パラメーターと FLOP が大幅に削減されました。
モデルのパラメーターの最大 88% を削除しましたが、微調整後もほとんどのクラスでパフォーマンスに大きな変化はありませんでした。
実際の利点はグラフィックス プロセッシング ユニット (GPU) アーキテクチャによって異なり、非強力なハードウェアではより明確な速度向上が得られます。
タッカー分解によるポストホック ネットワーク圧縮は、精度を大幅に犠牲にすることなく、医用画像セグメンテーション モデルの計算需要を削減するための実行可能な戦略を提供します。
このアプローチにより、臨床現場での高度な深層学習テクノロジーの幅広い導入が可能になり、ハードウェア機能の制約を回避する方法が提供されます。
要約(オリジナル)
We address the computational barrier of deploying advanced deep learning segmentation models in clinical settings by studying the efficacy of network compression through tensor decomposition. We propose a post-training Tucker factorization that enables the decomposition of pre-existing models to reduce computational requirements without impeding segmentation accuracy. We applied Tucker decomposition to the convolutional kernels of the TotalSegmentator (TS) model, an nnU-Net model trained on a comprehensive dataset for automatic segmentation of 117 anatomical structures. Our approach reduced the floating-point operations (FLOPs) and memory required during inference, offering an adjustable trade-off between computational efficiency and segmentation quality. This study utilized the publicly available TS dataset, employing various downsampling factors to explore the relationship between model size, inference speed, and segmentation performance. The application of Tucker decomposition to the TS model substantially reduced the model parameters and FLOPs across various compression rates, with limited loss in segmentation accuracy. We removed up to 88% of the model’s parameters with no significant performance changes in the majority of classes after fine-tuning. Practical benefits varied across different graphics processing unit (GPU) architectures, with more distinct speed-ups on less powerful hardware. Post-hoc network compression via Tucker decomposition presents a viable strategy for reducing the computational demand of medical image segmentation models without substantially sacrificing accuracy. This approach enables the broader adoption of advanced deep learning technologies in clinical practice, offering a way to navigate the constraints of hardware capabilities.
arxiv情報
著者 | Tobias Weber,Jakob Dexl,David Rügamer,Michael Ingrisch |
発行日 | 2024-04-15 11:36:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google