要約
教師なし画像セグメンテーションは、ラベル付けされたデータがほとんど利用できない多くの現実世界のシナリオで重要なタスクです。
このホワイト ペーパーでは、相互情報量最大化 (MIM)、ニューラル スーパーピクセル セグメンテーション、およびグラフ ニューラル ネットワーク (GNN) をエンドツーエンドで組み合わせて使用する教師なし学習の最近の進歩を利用する新しいアプローチを提案します。
まだ探索されています。
スーパーピクセルのコンパクトな表現を利用し、それをGNNと組み合わせて、強力で意味的に意味のある画像の表現を学習します。
具体的には、GNN ベースのアプローチにより、画像内の離れたピクセル間の相互作用をモデル化し、精度を向上させるために既存の CNN よりも前に強いものとして機能することを示します。
私たちの実験は、4 つの一般的なデータセットに対する現在の最先端の方法と比較して、私たちのアプローチの質的および量的利点の両方を明らかにしています。
要約(オリジナル)
Unsupervised image segmentation is an important task in many real-world scenarios where labelled data is of scarce availability. In this paper we propose a novel approach that harnesses recent advances in unsupervised learning using a combination of Mutual Information Maximization (MIM), Neural Superpixel Segmentation and Graph Neural Networks (GNNs) in an end-to-end manner, an approach that has not been explored yet. We take advantage of the compact representation of superpixels and combine it with GNNs in order to learn strong and semantically meaningful representations of images. Specifically, we show that our GNN based approach allows to model interactions between distant pixels in the image and serves as a strong prior to existing CNNs for an improved accuracy. Our experiments reveal both the qualitative and quantitative advantages of our approach compared to current state-of-the-art methods over four popular datasets.
arxiv情報
著者 | Moshe Eliasof,Nir Ben Zikri,Eran Treister |
発行日 | 2022-10-21 08:35:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google