Discovering Object Masks with Transformers for Unsupervised Semantic Segmentation

要約

教師なしセマンティックセグメンテーションのタスクは、ピクセルをセマンティックに意味のあるグループにクラスター化することを目的としています。
具体的には、同じクラスターに割り当てられたピクセルは、オブジェクトやパーツカテゴリなどの高レベルのセマンティックプロパティを共有する必要があります。
このホワイトペーパーでは、MaskDistillを紹介します。これは、3つの重要なアイデアに基づく教師なしセマンティックセグメンテーションの新しいフレームワークです。
まず、セマンティックセグメンテーションの前にピクセルグループ化として機能するオブジェクトマスクを生成するためのデータ駆動型戦略を提唱します。
このアプローチでは、特定のシーン構成用に設計されていることが多く、競合するフレームワークの適用性を制限する手作りの事前設定が省略されています。
次に、MaskDistillは、オブジェクトマスクをクラスター化して、初期オブジェクトセグメンテーションモデルをトレーニングするための疑似グラウンドトゥルースを取得します。
第3に、このモデルを利用して、低品質のオブジェクトマスクを除外します。
この戦略は、事前のピクセルグループ化のノイズを軽減し、最終的なセグメンテーションモデルのトレーニングに使用するマスクのクリーンなコレクションをもたらします。
これらのコンポーネントを組み合わせることにより、PASCAL(+ 11%mIoU)およびCOCO(+ 4%マスクAP50)での教師なしセマンティックセグメンテーションの以前の作業を大幅に上回ることができます。
興味深いことに、既存のアプローチとは対照的に、私たちのフレームワークは低レベルの画像キューにラッチせず、オブジェクト中心のデータセットに限定されていません。
コードとモデルが利用可能になります。

要約(オリジナル)

The task of unsupervised semantic segmentation aims to cluster pixels into semantically meaningful groups. Specifically, pixels assigned to the same cluster should share high-level semantic properties like their object or part category. This paper presents MaskDistill: a novel framework for unsupervised semantic segmentation based on three key ideas. First, we advocate a data-driven strategy to generate object masks that serve as a pixel grouping prior for semantic segmentation. This approach omits handcrafted priors, which are often designed for specific scene compositions and limit the applicability of competing frameworks. Second, MaskDistill clusters the object masks to obtain pseudo-ground-truth for training an initial object segmentation model. Third, we leverage this model to filter out low-quality object masks. This strategy mitigates the noise in our pixel grouping prior and results in a clean collection of masks which we use to train a final segmentation model. By combining these components, we can considerably outperform previous works for unsupervised semantic segmentation on PASCAL (+11% mIoU) and COCO (+4% mask AP50). Interestingly, as opposed to existing approaches, our framework does not latch onto low-level image cues and is not limited to object-centric datasets. The code and models will be made available.

arxiv情報

著者 Wouter Van Gansbeke,Simon Vandenhende,Luc Van Gool
発行日 2022-06-13 17:59:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク