Fast Learnings of Coupled Nonnegative Tensor Decomposition Using Optimal Gradient and Low-rank Approximation

要約

非負テンソル分解は、信号処理や神経科学などで広く適用されています。マルチブロック テンソルのグループ解析に関しては、従来のテンソル分解では、テンソル間の共有/類似情報を利用するには不十分です。
この研究では、交互近位勾配法 (CoNCPDAPG) によって最適化された、結合された非負の CANDECOMP/PARAFAC 分解アルゴリズムを提案します。これは、部分的にリンクされた異なるサンプルからのテンソルの同時分解と、共通成分の同時抽出、個別の同時抽出が可能です。
コンポーネントとコア テンソル。
非負の制約とデータの高次元の性質によってもたらされる低い最適化効率により、低ランク近似と提案された CoNCPD-APG メソッドを組み合わせることにより、lraCoNCPD-APG アルゴリズムをさらに提案します。
マルチブロックの大規模テンソルを処理する場合、提案された lraCoNCPD-APG アルゴリズムは、分解品質を損なうことなく計算負荷を大幅に削減できます。
合成データ、現実世界の顔画像、およびイベント関連の潜在的なデータ用に設計された結合された非負テンソル分解問題の実験結果は、提案されたアルゴリズムの実用性と優位性を示しています。

要約(オリジナル)

Nonnegative tensor decomposition has been widely applied in signal processing and neuroscience, etc. When it comes to group analysis of multi-block tensors, traditional tensor decomposition is insufficient to utilize the shared/similar information among tensors. In this study, we propose a coupled nonnegative CANDECOMP/PARAFAC decomposition algorithm optimized by the alternating proximal gradient method (CoNCPDAPG), which is capable of a simultaneous decomposition of tensors from different samples that are partially linked and a simultaneous extraction of common components, individual components and core tensors. Due to the low optimization efficiency brought by the nonnegative constraint and the high-dimensional nature of the data, we further propose the lraCoNCPD-APG algorithm by combining low-rank approximation and the proposed CoNCPD-APG method. When processing multi-block large-scale tensors, the proposed lraCoNCPD-APG algorithm can greatly reduce the computational load without compromising the decomposition quality. Experiment results of coupled nonnegative tensor decomposition problems designed for synthetic data, real-world face images and event-related potential data demonstrate the practicability and superiority of the proposed algorithms.

arxiv情報

著者 Xiulin Wang,Tapani Ristaniemi,Fengyu Cong
発行日 2023-02-10 08:49:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク