要約
ディープ畳み込みニューラル ネットワーク (CNN) の解像度は、通常、フィルター サイズ、サブサンプリング レイヤーまたは特徴マップ上のストライド畳み込みによる受容野サイズによって制限されます。
最適な解像度はデータセットによって大きく異なる場合があります。
最新の CNN は解像度のハイパーパラメータをネットワーク アーキテクチャにハードコーディングしているため、そのようなハイパーパラメータの調整が面倒になっています。
私たちは、ハードコーディングされた解像度のハイパーパラメータを廃止し、データから適切な解像度を学習することを提案します。
スケール空間理論を使用してフィルターの自己相似パラメーター化を取得し、N-Jet (切り捨てられたテイラー級数) を利用して、ガウス微分フィルターの学習された組み合わせによってフィルターを近似します。
ガウス基底のパラメーター シグマは、フィルターがエンコードする詳細の量とフィルターの空間範囲の両方を制御します。
シグマは連続パラメータであるため、損失に関して最適化できます。
提案された N-Jet レイヤーは、各レイヤーで正しい解像度を自動的に学習しながら、最先端のアーキテクチャで使用した場合に同等のパフォーマンスを実現します。
分類とセグメンテーションの両方で N-Jet 層を評価し、シグマの学習が複数のサイズの入力に対して特に有益であることを示します。
要約(オリジナル)
Resolution in deep convolutional neural networks (CNNs) is typically bounded by the receptive field size through filter sizes, and subsampling layers or strided convolutions on feature maps. The optimal resolution may vary significantly depending on the dataset. Modern CNNs hard-code their resolution hyper-parameters in the network architecture which makes tuning such hyper-parameters cumbersome. We propose to do away with hard-coded resolution hyper-parameters and aim to learn the appropriate resolution from data. We use scale-space theory to obtain a self-similar parametrization of filters and make use of the N-Jet: a truncated Taylor series to approximate a filter by a learned combination of Gaussian derivative filters. The parameter sigma of the Gaussian basis controls both the amount of detail the filter encodes and the spatial extent of the filter. Since sigma is a continuous parameter, we can optimize it with respect to the loss. The proposed N-Jet layer achieves comparable performance when used in state-of-the art architectures, while learning the correct resolution in each layer automatically. We evaluate our N-Jet layer on both classification and segmentation, and we show that learning sigma is especially beneficial for inputs at multiple sizes.
arxiv情報
著者 | Silvia L. Pintea,Nergis Tomen,Stanley F. Goes,Marco Loog,Jan C. van Gemert |
発行日 | 2023-10-24 14:22:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google