An Empirical Study on Multi-Domain Robust Semantic Segmentation

要約

豊富な既存のデータセットを効果的に活用して堅牢で高性能なモデルをトレーニングする方法は、多くの実用的なアプリケーションにとって非常に重要です。
ただし、異なるデータセットの単純なマージでトレーニングされたモデルは、アノテーションの競合とドメインの相違により、パフォーマンスが低下する傾向があります。
データ拡張、トレーニング戦略、モデル容量の 3 つの側面から、モデルの一般化への影響を詳細に分析します。分析に基づいて、ドメイン全体でモデルの一般化を改善できる堅牢なソリューションを提案します。
RVC 2022 セマンティック セグメンテーション タスク。データセットは最初に使用したモデルの 1/3 サイズのみです。

要約(オリジナル)

How to effectively leverage the plentiful existing datasets to train a robust and high-performance model is of great significance for many practical applications. However, a model trained on a naive merge of different datasets tends to obtain poor performance due to annotation conflicts and domain divergence.In this paper, we attempt to train a unified model that is expected to perform well across domains on several popularity segmentation datasets.We conduct a detailed analysis of the impact on model generalization from three aspects of data augmentation, training strategies, and model capacity.Based on the analysis, we propose a robust solution that is able to improve model generalization across domains.Our solution ranks 2nd on RVC 2022 semantic segmentation task, with a dataset only 1/3 size of the 1st model used.

arxiv情報

著者 Yajie Liu,Pu Ge,Qingjie Liu,Shichao Fan,Yunhong Wang
発行日 2022-12-08 12:04:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク