要約
大きな進歩にもかかわらず、以前のマルチビューの教師なし特徴選択方法には、主に 2 つの制限があります。
第 1 に、それらは一般に、特徴選択をガイドするためにクラスター構造または類似性構造のいずれかを利用しますが、相互に利益をもたらす共同定式化の可能性は無視されます。
第二に、多くの場合、グローバル構造学習またはローカル構造学習のいずれかによって類似構造を学習しますが、これらにはグローバル構造とローカル構造の両方を認識したグラフ学習の機能がありません。
これを踏まえて、この論文では、共同マルチビュー教師なし特徴選択およびグラフ学習 (JMVFG) アプローチを紹介します。
特に、直交分解を使用してマルチビュー特徴選択を定式化します。この場合、各ターゲット行列はビュー固有の基底行列とビュー一貫性のあるクラスター指標に分解されます。
空間間の局所性の保存は、投影空間でのクラスター構造の学習と元の空間での類似性学習 (つまり、グラフ学習) を橋渡しするために組み込まれています。
さらに、クラスタ構造、グローバルおよびローカルの類似性構造、およびマルチビューの整合性と不整合性の同時学習を可能にする統一目的関数が提示され、それに基づいて理論的に証明された収束を伴う交互最適化アルゴリズムが開発されます。
現実世界のさまざまなマルチビュー データセットに対する広範な実験により、マルチビューの特徴選択とグラフ学習タスクの両方に対する私たちのアプローチの優位性が実証されました。
コードは https://github.com/huangdonghere/JMVFG で入手できます。
要約(オリジナル)
Despite significant progress, previous multi-view unsupervised feature selection methods mostly suffer from two limitations. First, they generally utilize either cluster structure or similarity structure to guide the feature selection, which neglect the possibility of a joint formulation with mutual benefits. Second, they often learn the similarity structure by either global structure learning or local structure learning, which lack the capability of graph learning with both global and local structural awareness. In light of this, this paper presents a joint multi-view unsupervised feature selection and graph learning (JMVFG) approach. Particularly, we formulate the multi-view feature selection with orthogonal decomposition, where each target matrix is decomposed into a view-specific basis matrix and a view-consistent cluster indicator. The cross-space locality preservation is incorporated to bridge the cluster structure learning in the projected space and the similarity learning (i.e., graph learning) in the original space. Further, a unified objective function is presented to enable the simultaneous learning of the cluster structure, the global and local similarity structures, and the multi-view consistency and inconsistency, upon which an alternating optimization algorithm is developed with theoretically proved convergence. Extensive experiments on a variety of real-world multi-view datasets demonstrate the superiority of our approach for both the multi-view feature selection and graph learning tasks. The code is available at https://github.com/huangdonghere/JMVFG.
arxiv情報
著者 | Si-Guo Fang,Dong Huang,Chang-Dong Wang,Yong Tang |
発行日 | 2023-08-11 09:30:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google