A Survey on Deep Clustering: From the Prior Perspective

要約

ニューラル ネットワークの強力な特徴抽出能力によって促進されるディープ クラスタリングは、高次元で複雑な現実世界のデータの分析において大きな成功を収めています。
ディープ クラスタリング手法のパフォーマンスは、ネットワーク構造や学習目標などのさまざまな要因の影響を受けます。
しかし、今回の調査でも指摘されているように、深いクラスタリングの本質は、既存の研究ではほとんど無視されている事前知識の組み込みと活用にあります。
データ構造の仮定に基づく先駆的なディープ クラスタリング手法から、データ拡張不変性に基づく最近の対照的クラスタリング手法に至るまで、ディープ クラスタリングの開発は本質的に事前知識の進化に対応しています。
この調査では、ディープ クラスタリング手法を 6 種類の事前知識に分類して包括的にレビューします。
一般に、これまでのイノベーションは 2 つの傾向、すなわち、i) 採掘から建設へ、ii) 内部から外部へという傾向に従うことがわかりました。
さらに、広く使用されている 5 つのデータセットに関するベンチマークを提供し、さまざまな事前分布を使用した手法のパフォーマンスを分析します。
新しい事前知識の観点を提供することで、この調査がいくつかの新しい洞察を提供し、ディープ クラスタリング コミュニティにおける将来の研究に刺激を与えることができれば幸いです。

要約(オリジナル)

Facilitated by the powerful feature extraction ability of neural networks, deep clustering has achieved great success in analyzing high-dimensional and complex real-world data. The performance of deep clustering methods is affected by various factors such as network structures and learning objectives. However, as pointed out in this survey, the essence of deep clustering lies in the incorporation and utilization of prior knowledge, which is largely ignored by existing works. From pioneering deep clustering methods based on data structure assumptions to recent contrastive clustering methods based on data augmentation invariances, the development of deep clustering intrinsically corresponds to the evolution of prior knowledge. In this survey, we provide a comprehensive review of deep clustering methods by categorizing them into six types of prior knowledge. We find that in general the prior innovation follows two trends, namely, i) from mining to constructing, and ii) from internal to external. Besides, we provide a benchmark on five widely-used datasets and analyze the performance of methods with diverse priors. By providing a novel prior knowledge perspective, we hope this survey could provide some novel insights and inspire future research in the deep clustering community.

arxiv情報

著者 Yiding Lu,Haobin Li,Yunfan Li,Yijie Lin,Xi Peng
発行日 2024-07-01 02:10:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク