3D Segmentation with Fully Trainable Gabor Kernels and Pearson’s Correlation Coefficient

要約

畳み込み層と損失関数は、深層学習の 2 つの基本コンポーネントです。
従来の深層学習カーネルの成功により、汎用性の低いガボール カーネルは、はるかに少ないパラメーターでさまざまな周波数、向き、スケールで豊富な機能を提供できるという事実にもかかわらず、あまり人気がなくなりました。
マルチクラス画像セグメンテーションの既存の損失関数の場合、通常、精度、ハイパーパラメーターに対する堅牢性、および異なる損失を組み合わせるための手動の重み選択の間にトレードオフがあります。
したがって、深層学習における自動特徴生成の利点を維持しながらガボール カーネルを使用する利点を得るために、すべてのガボール パラメーターがバックプロパゲーションによってトレーニング可能な、完全にトレーニング可能なガボール ベースの畳み込みレイヤーを提案します。
さらに、ピアソンの相関係数に基づく損失関数を提案します。これは正確で、学習率に対してロバストで、手動の重み選択を必要としません。
19 の解剖学的構造を持つ 43 の 3D 脳磁気共鳴画像に関する実験では、従来のカーネルとガボール ベースのカーネルを適切に組み合わせた提案された損失関数を使用して、わずか 160 万のパラメーターでネットワークをトレーニングし、平均ダイス係数 83 を達成できることが示されています。
%。
このサイズは、7100 万のパラメーターを持つ元の V-Net の 44 分の 1 です。
このホワイト ペーパーでは、3D セグメンテーションの深層学習で学習可能なパラメトリック カーネルを使用する可能性を示します。

要約(オリジナル)

The convolutional layer and loss function are two fundamental components in deep learning. Because of the success of conventional deep learning kernels, the less versatile Gabor kernels become less popular despite the fact that they can provide abundant features at different frequencies, orientations, and scales with much fewer parameters. For existing loss functions for multi-class image segmentation, there is usually a tradeoff among accuracy, robustness to hyperparameters, and manual weight selections for combining different losses. Therefore, to gain the benefits of using Gabor kernels while keeping the advantage of automatic feature generation in deep learning, we propose a fully trainable Gabor-based convolutional layer where all Gabor parameters are trainable through backpropagation. Furthermore, we propose a loss function based on the Pearson’s correlation coefficient, which is accurate, robust to learning rates, and does not require manual weight selections. Experiments on 43 3D brain magnetic resonance images with 19 anatomical structures show that, using the proposed loss function with a proper combination of conventional and Gabor-based kernels, we can train a network with only 1.6 million parameters to achieve an average Dice coefficient of 83%. This size is 44 times smaller than the original V-Net which has 71 million parameters. This paper demonstrates the potentials of using learnable parametric kernels in deep learning for 3D segmentation.

arxiv情報

著者 Ken C. L. Wong,Mehdi Moradi
発行日 2022-12-15 16:24:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク