要約
アルゴリズムのスケール不変性とは、オブジェクトをそのサイズに関係なく同等に扱う能力を指します。
ニューラル ネットワークの場合、スケールの不変性は通常、データ拡張によって実現されます。
ただし、トレーニング セットがカバーする範囲をはるかに超えたスケールが与えられた場合、ニューラル ネットワークは一般化できない可能性があります。
ここでは、新しいスケール不変ニューラル ネットワークである Riesz ネットワークを紹介します。
空間情報を組み合わせるための標準的な 2D または 3D 畳み込みの代わりに、Riesz ネットワークはスケール等変演算である Riesz 変換に基づいています。
結果として、このネットワークは、単一の順方向パスで目に見えないスケール、さらには任意のスケールまで自然に一般化します。
応用例として、コンクリートの断層画像からひび割れを検出してセグメント化することを考えます。
この文脈での「スケール」とは、同じサンプル内であっても大きく異なる可能性がある亀裂の厚さを指します。
スケールの不変性を証明するために、Riesz ネットワークは 1 つの固定亀裂幅でトレーニングされます。
次に、広範囲の亀裂幅を特徴とするシミュレーション画像と実際の断層画像をセグメント化する際のパフォーマンスを検証します。
MNIST 大規模データセットに対して追加の実験が実行されます。
要約(オリジナル)
Scale invariance of an algorithm refers to its ability to treat objects equally independently of their size. For neural networks, scale invariance is typically achieved by data augmentation. However, when presented with a scale far outside the range covered by the training set, neural networks may fail to generalize. Here, we introduce the Riesz network, a novel scale invariant neural network. Instead of standard 2d or 3d convolutions for combining spatial information, the Riesz network is based on the Riesz transform which is a scale equivariant operation. As a consequence, this network naturally generalizes to unseen or even arbitrary scales in a single forward pass. As an application example, we consider detecting and segmenting cracks in tomographic images of concrete. In this context, ‘scale’ refers to the crack thickness which may vary strongly even within the same sample. To prove its scale invariance, the Riesz network is trained on one fixed crack width. We then validate its performance in segmenting simulated and real tomographic images featuring a wide range of crack widths. An additional experiment is carried out on the MNIST Large Scale data set.
arxiv情報
著者 | Tin Barisin,Katja Schladitz,Claudia Redenbach |
発行日 | 2024-01-11 13:30:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google