Mitigating Distributional Shift in Semantic Segmentation via Uncertainty Estimation from Unlabelled Data

要約

トレーニングされたセグメンテーション モデルがトレーニング データとは異なるデータに遭遇したときを知ることは重要です。
この影響を理解し、軽減することは、パフォーマンスと保証の観点からアプリケーションにおいて重要な役割を果たします。これは、自動運転車 (AV) などのアプリケーションでは安全性に関する懸念事項です。
この研究では、単一の順方向パスで追加の注釈を付けずに、困難なテスト ドメインによって引き起こされるエラーを検出できるセグメンテーション ネットワークを紹介します。
アノテーションのコストによりラベル付きデータセットの多様性が制限されるため、入手が容易で未キュレートでラベルのないデータを使用して、データ拡張よりも一貫性を選択的に強化することで不確実性推定を実行する方法を学習します。
この目的を達成するために、SAX データセットに基づく新しいセグメンテーション ベンチマークが使用されます。これには、密集した都市部からオフロードまでの 3 つの自動運転ドメインにわたるラベル付きテスト データが含まれています。
Gamma-SSL と名付けられた提案手法は、この困難なベンチマークにおいて、不確実性推定および配信外 (OoD) 手法を常に上回り、受信者動作特性 (ROC) 曲線下の面積で最大 10.7%、曲線下の面積で 19.2% 優れています。
3 つのシナリオのうち最も困難なシナリオにおける適合率-再現率 (PR) 曲線。

要約(オリジナル)

Knowing when a trained segmentation model is encountering data that is different to its training data is important. Understanding and mitigating the effects of this play an important part in their application from a performance and assurance perspective – this being a safety concern in applications such as autonomous vehicles (AVs). This work presents a segmentation network that can detect errors caused by challenging test domains without any additional annotation in a single forward pass. As annotation costs limit the diversity of labelled datasets, we use easy-to-obtain, uncurated and unlabelled data to learn to perform uncertainty estimation by selectively enforcing consistency over data augmentation. To this end, a novel segmentation benchmark based on the SAX Dataset is used, which includes labelled test data spanning three autonomous-driving domains, ranging in appearance from dense urban to off-road. The proposed method, named Gamma-SSL, consistently outperforms uncertainty estimation and Out-of-Distribution (OoD) techniques on this difficult benchmark – by up to 10.7% in area under the receiver operating characteristic (ROC) curve and 19.2% in area under the precision-recall (PR) curve in the most challenging of the three scenarios.

arxiv情報

著者 David S. W. Williams,Daniele De Martini,Matthew Gadd,Paul Newman
発行日 2024-02-27 16:23:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク