要約
ニューラル アーキテクチャ検索 (NAS) は、リアルタイムのセマンティック セグメンテーション用のニューラル ネットワーク アーキテクチャを自動的に設計する大きな可能性を示しています。
単純化されたセル共有方式の検索空間を利用する以前の研究とは異なり、セル共有方式をセル非依存型に置き換えることで、軽量モデルをより効果的に検索できる新しい検索空間を導入します。
これに基づいて、適切に設計された 2 つのモジュールによって、ローカルからグローバルへの情報伝達が実現されます。
ローカル情報交換のために、グラフ畳み込みネットワーク (GCN) ガイド付きモジュールが、セル間の通信配信としてシームレスに統合されます。
グローバルな情報集約のために、ネットワーク内の長距離マルチレベル機能を自動的に集約する新しい高密度接続融合モジュール (セル) を提案します。
さらに、精度とレイテンシのバランスをとるために、レイテンシ指向の制約が検索プロセスに与えられます。
提案されたフレームワークを、ローカルからグローバルへの情報通信ネットワーク検索 (LGCNet) と名付けます。
Cityscapes と CamVid データセットに関する広範な実験により、LGCNet が精度と速度の間の新しい最先端のトレードオフを実現することが実証されています。
特に、Cityscapes データセットでは、LGCNet は Titan Xp で 115.2 FPS の速度で 74.0\% mIoU という新しい最高のパフォーマンスを達成しています。
要約(オリジナル)
Neural Architecture Search (NAS) has shown great potentials in automatically designing neural network architectures for real-time semantic segmentation. Unlike previous works that utilize a simplified search space with cell-sharing way, we introduce a new search space where a lightweight model can be more effectively searched by replacing the cell-sharing manner with cell-independent one. Based on this, the communication of local to global information is achieved through two well-designed modules. For local information exchange, a graph convolutional network (GCN) guided module is seamlessly integrated as a communication deliver between cells. For global information aggregation, we propose a novel dense-connected fusion module (cell) which aggregates long-range multi-level features in the network automatically. In addition, a latency-oriented constraint is endowed into the search process to balance the accuracy and latency. We name the proposed framework as Local-to-Global Information Communication Network Search (LGCNet). Extensive experiments on Cityscapes and CamVid datasets demonstrate that LGCNet achieves the new state-of-the-art trade-off between accuracy and speed. In particular, on Cityscapes dataset, LGCNet achieves the new best performance of 74.0\% mIoU with the speed of 115.2 FPS on Titan Xp.
arxiv情報
著者 | Guangliang Cheng,Peng Sun,Ting-Bing Xu,Shuchang Lyu,Peiwen Lin |
発行日 | 2023-02-16 18:40:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google