Multilayer Graph Approach to Deep Subspace Clustering

要約

自己表現モデル学習表現行列に基づくディープ サブスペース クラスタリング (DSC) ネットワークは、埋め込み空間で完全に接続されたネットワークの観点から実装されることがよくあります。
学習が完了すると、スペクトル クラスタリング モジュールによって表現行列が使用され、クラスターにラベルが割り当てられます。
ただし、このようなアプローチでは、エンコーダの他の層に存在する補完情報 (入力データ自体を含む) が無視されます。
ここでは、選択された線形部分空間クラスタリング アルゴリズムを適用して、入力データを含むエンコーダ ネットワークのすべての層によって学習された表現から表現行列を学習します。
その後、マルチビューのような方法で、使用されたすべての層のグラフ ラプラシアンからの情報を統合する多層グラフを学習します。
これにより、選択した DSC ネットワークのパフォーマンスがさらに向上します。
さらに、サンプル外/テスト データ ポイントをクラスター化するためのアプローチの定式化も提供します。
ベースライン モデルとして 2 つの DSC ネットワークを使用して、4 つのよく知られたデータセットで提案されたアプローチを検証します。
ほぼすべてのケースで、提案されたアプローチは 3 つのパフォーマンス指標において統計的に有意な改善を達成しました。
提案されたアルゴリズムの MATLAB コードは https://github.com/lovro-sinda/MLG-DSC に掲載されています。

要約(オリジナル)

Deep subspace clustering (DSC) networks based on self-expressive model learn representation matrix, often implemented in terms of fully connected network, in the embedded space. After the learning is finished, representation matrix is used by spectral clustering module to assign labels to clusters. However, such approach ignores complementary information that exist in other layers of the encoder (including the input data themselves). Herein, we apply selected linear subspace clustering algorithm to learn representation matrices from representations learned by all layers of encoder network including the input data. Afterward, we learn a multilayer graph that in a multi-view like manner integrates information from graph Laplacians of all used layers. That improves further performance of selected DSC network. Furthermore, we also provide formulation of our approach to cluster out-of-sample/test data points. We validate proposed approach on four well-known datasets with two DSC networks as baseline models. In almost all the cases, proposed approach achieved statistically significant improvement in three performance metrics. MATLAB code of proposed algorithm is posted on https://github.com/lovro-sinda/MLG-DSC.

arxiv情報

著者 Lovro Sindičić,Ivica Kopriva
発行日 2024-01-30 14:09:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, I.4.6 パーマリンク