Deep Multi-View Semi-Supervised Clustering with Sample Pairwise Constraints

要約

タイトル:サンプルペア制約を用いたDeep Multi-View Semi-Supervisedクラスタリング

要約:
– マルチビュークラスタリングは、複数ソースの情報統合の能力により注目されている。
– 過去数十年間に様々な高度な手法が提案されてきたが、弱く監視された情報の重要性を見逃し、複数ビューの特徴プロパティを保存できないため、クラスタリングのパフォーマンスが不十分である。
– この問題に対応するために、本論文では、Deep Multi-View Semi-Supervisedクラスタリング(DMSC)という新しい手法を提案している。
– DMSCは、ネットワークのfinetuning中にマルチビュークラスタリングロス、セミ・スーパーバイズドペアワイズ制約ロス、および複数のオートエンコーダー再構築ロスを同時に最適化する。
– 具体的には、異種特徴最適化、マルチビュー重み付け、およびクラスタリング予測を実行するために、マルチビューデータの共通表現に基づくKL分散ベースのマルチビュークラスタリングロスが課せられる。
– 次に、学習されたマルチビュー表現のmust-linkサンプル(cannot-linkサンプル)のペアワイズ制約を統合することで、マルチビュークラスタリングのプロセスにペアワイズ制約を統合することを提案する。これにより、形成されたクラスタリングアーキテクチャはより信頼性が高くなる。
– さらに、ネットワークのfinetuning中に、従来のライバルが異種ブランチのエンコーダーのみを維持するのに対し、エンコーダーとデコーダーの両方を含むオートエンコーダーフレーム全体をチューニングすることを提案している。
– これにより、ビュー固有の特徴空間とビュー共有の特徴空間の深刻な破壊問題を和らげ、トレーニング手順全体をより安定させることができる。
– 8つの人気のある画像データセットでの包括的な実験により、提案手法が最新のマルチビューおよびシングルビューの競合手法よりも優れていることが示された。

要約(オリジナル)

Multi-view clustering has attracted much attention thanks to the capacity of multi-source information integration. Although numerous advanced methods have been proposed in past decades, most of them generally overlook the significance of weakly-supervised information and fail to preserve the feature properties of multiple views, thus resulting in unsatisfactory clustering performance. To address these issues, in this paper, we propose a novel Deep Multi-view Semi-supervised Clustering (DMSC) method, which jointly optimizes three kinds of losses during networks finetuning, including multi-view clustering loss, semi-supervised pairwise constraint loss and multiple autoencoders reconstruction loss. Specifically, a KL divergence based multi-view clustering loss is imposed on the common representation of multi-view data to perform heterogeneous feature optimization, multi-view weighting and clustering prediction simultaneously. Then, we innovatively propose to integrate pairwise constraints into the process of multi-view clustering by enforcing the learned multi-view representation of must-link samples (cannot-link samples) to be similar (dissimilar), such that the formed clustering architecture can be more credible. Moreover, unlike existing rivals that only preserve the encoders for each heterogeneous branch during networks finetuning, we further propose to tune the intact autoencoders frame that contains both encoders and decoders. In this way, the issue of serious corruption of view-specific and view-shared feature space could be alleviated, making the whole training procedure more stable. Through comprehensive experiments on eight popular image datasets, we demonstrate that our proposed approach performs better than the state-of-the-art multi-view and single-view competitors.

arxiv情報

著者 Rui Chen,Yongqiang Tang,Wensheng Zhang,Wenlong Feng
発行日 2023-05-05 06:43:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク