Deep Multi-view Semi-supervised Clustering with Sample Pairwise Constraints

要約

マルチソース情報統合の能力のおかげで、マルチビュークラスタリングが大きな注目を集めています。
過去数十年間に多くの高度な方法が提案されてきましたが、それらのほとんどは一般に、弱く監視された情報の重要性を見落とし、複数のビューの機能プロパティを保持できないため、不十分なクラスタリングパフォーマンスになります。
これらの問題に対処するために、本論文では、マルチビュークラスタリング損失、半教師ありペアワイズ制約損失を含む、ネットワーク微調整中の3種類の損失を共同で最適化する新しいディープマルチビュー半教師ありクラスタリング(DMSC)法を提案します。
および複数のオートエンコーダの再構築損失。
具体的には、KLダイバージェンスベースのマルチビュークラスタリング損失がマルチビューデータの一般的な表現に課され、異種機能の最適化、マルチビューの重み付け、およびクラスタリングの予測を同時に実行します。
次に、ペアワイズ制約をマルチビュークラスタリングのプロセスに統合することを革新的に提案します。これは、形成されたクラスタリングアーキテクチャが
より信頼できる。
さらに、ネットワークの微調整中に各異種ブランチのエンコーダーのみを保持する既存のライバルとは異なり、エンコーダーとデコーダーの両方を含む完全なオートエンコーダーフレームを調整することをさらに提案します。
このようにして、ビュー固有およびビュー共有の機能スペースの深刻な破損の問題を軽減し、トレーニング手順全体をより安定させることができます。
8つの人気のある画像データセットでの包括的な実験を通じて、提案されたアプローチが最先端のマルチビューおよびシングルビューの競合他社よりも優れていることを示しています。

要約(オリジナル)

Multi-view clustering has attracted much attention thanks to the capacity of multi-source information integration. Although numerous advanced methods have been proposed in past decades, most of them generally overlook the significance of weakly-supervised information and fail to preserve the feature properties of multiple views, thus resulting in unsatisfactory clustering performance. To address these issues, in this paper, we propose a novel Deep Multi-view Semi-supervised Clustering (DMSC) method, which jointly optimizes three kinds of losses during networks finetuning, including multi-view clustering loss, semi-supervised pairwise constraint loss and multiple autoencoders reconstruction loss. Specifically, a KL divergence based multi-view clustering loss is imposed on the common representation of multi-view data to perform heterogeneous feature optimization, multi-view weighting and clustering prediction simultaneously. Then, we innovatively propose to integrate pairwise constraints into the process of multi-view clustering by enforcing the learned multi-view representation of must-link samples (cannot-link samples) to be similar (dissimilar), such that the formed clustering architecture can be more credible. Moreover, unlike existing rivals that only preserve the encoders for each heterogeneous branch during networks finetuning, we further propose to tune the intact autoencoders frame that contains both encoders and decoders. In this way, the issue of serious corruption of view-specific and view-shared feature space could be alleviated, making the whole training procedure more stable. Through comprehensive experiments on eight popular image datasets, we demonstrate that our proposed approach performs better than the state-of-the-art multi-view and single-view competitors.

arxiv情報

著者 Rui Chen,Yongqiang Tang,Wensheng Zhang,Wenlong Feng
発行日 2022-06-10 08:51:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク