要約
マルチビュー表現の学習は、クラスタリングや分類など、多くのマルチビュー タスクに不可欠です。
ただし、コミュニティを悩ませている 2 つの困難な問題があります。i) 大量のラベルなしデータから堅牢なマルチビュー表現を学習する方法、および ii) ビューの一貫性とビューの特異性のバランスを取る方法です。
この目的のために、この論文では、ラベル付けされていないデータから堅牢なビュー共通表現を抽出するためのハイブリッド対照融合アルゴリズムを提案しました。
具体的には、追加の表現空間を導入し、この空間で表現を整列させることで、モデルが堅牢なビュー共通表現を学習できることがわかりました。
同時に、モデルが自明な解を得ないようにするために、非対称対比戦略を設計しました。
実験結果は、提案された方法が、クラスタリングと分類に関して、4 つの実世界のデータセットに対する 12 の競合するマルチビュー方法よりも優れていることを示しました。
私たちのソース コードは、\url{https://github.com/guanzhou-ke/mori-ran} ですぐに利用できるようになります。
要約(オリジナル)
Multi-view representation learning is essential for many multi-view tasks, such as clustering and classification. However, there are two challenging problems plaguing the community: i)how to learn robust multi-view representation from mass unlabeled data and ii) how to balance the view consistency and the view specificity. To this end, in this paper, we proposed a hybrid contrastive fusion algorithm to extract robust view-common representation from unlabeled data. Specifically, we found that introducing an additional representation space and aligning representations on this space enables the model to learn robust view-common representations. At the same time, we designed an asymmetric contrastive strategy to ensure that the model does not obtain trivial solutions. Experimental results demonstrated that the proposed method outperforms 12 competitive multi-view methods on four real-world datasets in terms of clustering and classification. Our source code will be available soon at \url{https://github.com/guanzhou-ke/mori-ran}.
arxiv情報
著者 | Guanzhou Ke,Yongqi Zhu,Yang Yu |
発行日 | 2022-08-30 08:54:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google