Discrete approximations of Gaussian smoothing and Gaussian derivatives

要約

この論文は、離散データに適用するためのスケール空間理論におけるガウス平滑化およびガウス微分計算の近似問題に関する詳細な処理を開発します。
連続および離散スケール空間理論の以前の公理的処理と密接に関連して、(i) ガウス カーネルとガウス導関数カーネルのサンプリング、
(ii) 各ピクセル サポート領域にわたってガウス カーネルとガウス導関数カーネルを局所的に統合し、(iii) ガウス カーネルの離散類似物に基づいてスケール空間解析を行い、次に小サポート中心差分演算子を適用することによって導関数近似を計算します。
空間的に平滑化された画像データに変換されます。
私たちは、これら 3 つの主要な離散化手法の特性を理論と実験の両方で研究し、スケール選択のタスクに関してそれらがもたらす結果を含む定量的尺度によってそのパフォーマンスを特徴付けます。4 つの異なる使用例について調査され、以下に重点を置きます。
細かいスケールでの動作。
結果は、サンプリングされたガウス カーネルと導関数、および統合されたガウス カーネルと導関数が、非常に細かいスケールでは非常に悪いパフォーマンスを示すことを示しています。
非常に細かいスケールでは、対応する離散微分近似を備えたガウス カーネルの離散アナログのパフォーマンスが大幅に向上します。
一方、サンプリングされたガウス カーネルとサンプリングされたガウス導関数は、スケール パラメーターが十分に大きい場合、論文で提示された実験でスケール パラメーターがより大きい場合、対応する連続結果の数値的に非常に良好な近似をもたらします。
グリッド間隔の単位で、約 1 の値よりも大きくなります。

要約(オリジナル)

This paper develops an in-depth treatment concerning the problem of approximating the Gaussian smoothing and Gaussian derivative computations in scale-space theory for application on discrete data. With close connections to previous axiomatic treatments of continuous and discrete scale-space theory, we consider three main ways discretizing these scale-space operations in terms of explicit discrete convolutions, based on either (i) sampling the Gaussian kernels and the Gaussian derivative kernels, (ii) locally integrating the Gaussian kernels and the Gaussian derivative kernels over each pixel support region and (iii) basing the scale-space analysis on the discrete analogue of the Gaussian kernel, and then computing derivative approximations by applying small-support central difference operators to the spatially smoothed image data. We study the properties of these three main discretization methods both theoretically and experimentally, and characterize their performance by quantitative measures, including the results they give rise to with respect to the task of scale selection, investigated for four different use cases, and with emphasis on the behaviour at fine scales. The results show that the sampled Gaussian kernels and derivatives as well as the integrated Gaussian kernels and derivatives perform very poorly at very fine scales. At very fine scales, the discrete analogue of the Gaussian kernel with its corresponding discrete derivative approximations performs substantially better. The sampled Gaussian kernel and the sampled Gaussian derivatives do, on the other hand, lead to numerically very good approximations of the corresponding continuous results, when the scale parameter is sufficiently large, in the experiments presented in the paper, when the scale parameter is greater than a value of about 1, in units of the grid spacing.

arxiv情報

著者 Tony Lindeberg
発行日 2023-11-22 12:52:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク