An Algorithm to Train Unrestricted Sequential Discrete Morphological Neural Networks

要約

畳み込みニューラルネットワーク(CNN)に数学的形態学(MM)演算子を挿入する試みはこれまでにもあり、現在までに最も成功した試みは形態学ニューラルネットワーク(MNN)である。MNNはいくつかの問題を解決する上でCNNよりも優れた性能を発揮しているが、ブラックボックス的な性質を受け継いでいる。さらに、2値画像の場合、MNNはMM演算子のブール格子構造を緩めた近似であるため、特定のクラスのW演算子を望ましい性質で表現することはできない。そこで我々は,2値画像変換のための離散形態素ニューラルネットワーク(Discrete Morphological Neural Networks: DMNN)を提案した.また、確率的格子降下アルゴリズム(SLDA)を提案し、正準離散形態ニューラルネットワーク(CDMNN)のパラメータを学習した。CDMNNのアーキテクチャは、エロージョンとダイレーションのsupremum, infimum, complementとして分解可能なオペレータのみで構成される。本論文では、一般的なW演算子の構成によってアーキテクチャが与えられる、無制限逐次DMNNを学習するアルゴリズムを提案する。このアルゴリズムを実例で説明する。

要約(オリジナル)

There have been attempts to insert mathematical morphology (MM) operators into convolutional neural networks (CNN), and the most successful endeavor to date has been the morphological neural networks (MNN). Although MNN have performed better than CNN in solving some problems, they inherit their black-box nature. Furthermore, in the case of binary images, they are approximations that loose the Boolean lattice structure of MM operators and, thus, it is not possible to represent a specific class of W-operators with desired properties. In a recent work, we proposed the Discrete Morphological Neural Networks (DMNN) for binary image transformation to represent specific classes of W-operators and estimate them via machine learning. We also proposed a stochastic lattice descent algorithm (SLDA) to learn the parameters of Canonical Discrete Morphological Neural Networks (CDMNN), whose architecture is composed only of operators that can be decomposed as the supremum, infimum, and complement of erosions and dilations. In this paper, we propose an algorithm to learn unrestricted sequential DMNN, whose architecture is given by the composition of general W-operators. We illustrate the algorithm in a practical example.

arxiv情報

著者 Diego Marcondes,Mariana Feldman,Junior Barrera
発行日 2024-02-02 15:40:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク