要約
オートエンコーダベースの深部部分空間クラスタリング(DSC)は、コンピュータビジョン、モーションセグメンテーション、および画像処理で広く使用されています。
ただし、自己表現型マトリックス学習プロセスでは、次の3つの問題があります。最初の問題は、単純な再構成損失のため、自己表現型の重みを学習するための有用な情報ではありません。
2つ目は、サンプルサイズに関連する自己表現層の構築には、高い計算コストが必要になることです。
最後の1つは、既存の正則化用語の接続が制限されていることです。
これらの問題に対処するために、この論文では、エントロピーノルム(S $ ^ {3} $ CE)を使用した自己監視型深部部分空間クラスタリングという名前の新しいモデルを提案します。
具体的には、S $ ^ {3} $ CEは、自己監視型の対照ネットワークを利用して、より効果的な特徴ベクトルを取得します。
元のデータのローカル構造と密な接続性は、自己表現層と追加のエントロピーノルム制約の恩恵を受けます。
さらに、データ拡張機能を備えた新しいモジュールは、S $ ^ {3} $ CEがデータの重要な情報に焦点を合わせ、スペクトルクラスタリングを通じてポジティブインスタンスとネガティブインスタンスのクラスタリングパフォーマンスを向上させるように設計されています。
広範な実験結果は、最先端のアプローチと比較して、S $ ^ {3}$CEの優れたパフォーマンスを示しています。
要約(オリジナル)
Auto-Encoder based deep subspace clustering (DSC) is widely used in computer vision, motion segmentation and image processing. However, it suffers from the following three issues in the self-expressive matrix learning process: the first one is less useful information for learning self-expressive weights due to the simple reconstruction loss; the second one is that the construction of the self-expression layer associated with the sample size requires high-computational cost; and the last one is the limited connectivity of the existing regularization terms. In order to address these issues, in this paper we propose a novel model named Self-Supervised deep Subspace Clustering with Entropy-norm (S$^{3}$CE). Specifically, S$^{3}$CE exploits a self-supervised contrastive network to gain a more effetive feature vector. The local structure and dense connectivity of the original data benefit from the self-expressive layer and additional entropy-norm constraint. Moreover, a new module with data enhancement is designed to help S$^{3}$CE focus on the key information of data, and improve the clustering performance of positive and negative instances through spectral clustering. Extensive experimental results demonstrate the superior performance of S$^{3}$CE in comparison to the state-of-the-art approaches.
arxiv情報
著者 | Guangyi Zhao,Simin Kou,Xuesong Yin |
発行日 | 2022-06-10 09:15:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google