要約
UNet [27]は、その単純さと有効性により、セマンティックセグメンテーションで広く使用されています。
ただし、手動で設計されたアーキテクチャは、アーキテクチャの最適化を行わない場合、または手動で調整する場合のいずれかで、多数の問題設定に適用されます。これには時間がかかり、最適ではない可能性があります。
この作業では、最初に、マルコフ確率場ニューラルアーキテクチャ検索(MRF-NAS)を提案します。これは、(i)より一般的なMRFフレームワーク(ii)を使用して、最近の適応および最適ネットワーク幅検索(AOWS)メソッド[4]を拡張および改善します。
多様なM-bestルーピー推論(iii)微分可能なパラメーター学習。
これにより、スキップ接続から発生するループを含む、ループ状の推論グラフを誘発するネットワークアーキテクチャを効率的に探索するために必要なNASフレームワークが提供されます。
UNetをバックボーンとして使用すると、いくつかの興味深い特性を示すアーキテクチャMRF-UNetが見つかります。
次に、これらの特性のレンズを通して、元のUNetアーキテクチャの準最適性を特定し、MRF-UNetV2を使用して結果をさらに改善します。
実験によると、MRF-UNetsは、低い計算コストを維持しながら、3つの航空画像データセットと2つの医用画像データセットでいくつかのベンチマークを大幅に上回っています。
コードはhttps://github.com/zifuwanggg/MRF-UNetsで入手できます。
要約(オリジナル)
UNet [27] is widely used in semantic segmentation due to its simplicity and effectiveness. However, its manually-designed architecture is applied to a large number of problem settings, either with no architecture optimizations, or with manual tuning, which is time consuming and can be sub-optimal. In this work, firstly, we propose Markov Random Field Neural Architecture Search (MRF-NAS) that extends and improves the recent Adaptive and Optimal Network Width Search (AOWS) method [4] with (i) a more general MRF framework (ii) diverse M-best loopy inference (iii) differentiable parameter learning. This provides the necessary NAS framework to efficiently explore network architectures that induce loopy inference graphs, including loops that arise from skip connections. With UNet as the backbone, we find an architecture, MRF-UNet, that shows several interesting characteristics. Secondly, through the lens of these characteristics, we identify the sub-optimality of the original UNet architecture and further improve our results with MRF-UNetV2. Experiments show that our MRF-UNets significantly outperform several benchmarks on three aerial image datasets and two medical image datasets while maintaining low computational costs. The code is available at: https://github.com/zifuwanggg/MRF-UNets.
arxiv情報
著者 | Zifu Wang,Matthew B. Blaschko |
発行日 | 2022-07-13 13:04:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google