要約
サブスペースクラスタリングは、高次元データをサブスペース(UOS)によって近似できるという基本的な仮定に基づいて構築された古典的な監視されていない学習タスクです。
それにもかかわらず、実際のデータはしばしばUOSの仮定から逸脱しています。
この課題に対処するために、最先端の深い部分空間クラスタリングアルゴリズムは、UOS表現と自己表現係数を共同で学習しようとします。
ただし、既存のアルゴリズムの一般的なフレームワークは、壊滅的な特徴の崩壊に苦しみ、望ましいUOS表現を学習するための理論的保証がありません。
この論文では、統合された方法で構造化された表現と自己表現係数を学習するように設計されたディープサブスペースクラスタリング(Pro-DSC)の原則的なフレームワークを紹介します。
具体的には、PRO-DSCでは、学習表現に関する効果的な正則化を自己表現モデルに組み込み、正規化された自己表現モデルが特徴空間崩壊を防ぐことができることを証明し、特定の条件下で学習した最適な表現が直交界の下部の結合にあることを実証します。
さらに、PRO-DSCを実装し、理論的な調査結果を検証し、提案されているディープサブスペースクラスタリングアプローチの優れたパフォーマンスを実証するための広範な実験を実施するためのスケーラブルで効率的なアプローチを提供します。
このコードは、https://github.com/mengxianghan123/pro-dscで入手できます。
要約(オリジナル)
Subspace clustering is a classical unsupervised learning task, built on a basic assumption that high-dimensional data can be approximated by a union of subspaces (UoS). Nevertheless, the real-world data are often deviating from the UoS assumption. To address this challenge, state-of-the-art deep subspace clustering algorithms attempt to jointly learn UoS representations and self-expressive coefficients. However, the general framework of the existing algorithms suffers from a catastrophic feature collapse and lacks a theoretical guarantee to learn desired UoS representation. In this paper, we present a Principled fRamewOrk for Deep Subspace Clustering (PRO-DSC), which is designed to learn structured representations and self-expressive coefficients in a unified manner. Specifically, in PRO-DSC, we incorporate an effective regularization on the learned representations into the self-expressive model, prove that the regularized self-expressive model is able to prevent feature space collapse, and demonstrate that the learned optimal representations under certain condition lie on a union of orthogonal subspaces. Moreover, we provide a scalable and efficient approach to implement our PRO-DSC and conduct extensive experiments to verify our theoretical findings and demonstrate the superior performance of our proposed deep subspace clustering approach. The code is available at https://github.com/mengxianghan123/PRO-DSC.
arxiv情報
著者 | Xianghan Meng,Zhiyuan Huang,Wei He,Xianbiao Qi,Rong Xiao,Chun-Guang Li |
発行日 | 2025-03-21 16:38:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google