要約
散乱ネットワークは、長時間のトレーニングを必要とせず、非常に少ないトレーニング データで適切に機能する、強力で堅牢な階層画像記述子を生成します。
ただし、スケール次元のサンプリングに依存しています。
したがって、スケールの変化に敏感になり、目に見えないスケールに一般化することができなくなります。
この研究では、Riesz 変換に基づいて代替の特徴表現を定義します。
この表現の背後にある数学的基礎を詳しく説明し、分析します。
特に、リース変換からスケール等分散性を継承し、スケール次元のサンプリングを完全に回避します。
さらに、表現内の特徴の数は、散乱ネットワークと比較して 4 分の 1 に削減されます。
それにもかかわらず、私たちの表現は、スケール等分散という興味深い追加機能を備えたテクスチャ分類に関しては比較的良好に機能します。
私たちの方法は、トレーニング データセットでカバーされるスケール以外のスケールを扱う場合に優れたパフォーマンスをもたらします。
等分散特性の有用性は数字分類タスクで実証されており、トレーニング用に選択されたスケールよりも 4 倍大きいスケールであっても精度は安定しています。
2 番目の例として、テクスチャの分類を考えます。
要約(オリジナル)
Scattering networks yield powerful and robust hierarchical image descriptors which do not require lengthy training and which work well with very few training data. However, they rely on sampling the scale dimension. Hence, they become sensitive to scale variations and are unable to generalize to unseen scales. In this work, we define an alternative feature representation based on the Riesz transform. We detail and analyze the mathematical foundations behind this representation. In particular, it inherits scale equivariance from the Riesz transform and completely avoids sampling of the scale dimension. Additionally, the number of features in the representation is reduced by a factor four compared to scattering networks. Nevertheless, our representation performs comparably well for texture classification with an interesting addition: scale equivariance. Our method yields superior performance when dealing with scales outside of those covered by the training dataset. The usefulness of the equivariance property is demonstrated on the digit classification task, where accuracy remains stable even for scales four times larger than the one chosen for training. As a second example, we consider classification of textures.
arxiv情報
著者 | Tin Barisin,Jesus Angulo,Katja Schladitz,Claudia Redenbach |
発行日 | 2024-01-11 13:38:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google