Sparse and Low-Rank High-Order Tensor Regression via Parallel Proximal Method

要約

最近、テンソル データ (または多次元配列) は、神経科学における機能的磁気共鳴画像法 (fMRI) やビデオ分析におけるビデオなど、多くの最新のアプリケーションで生成されています。
近年、テンソル特徴と単変量応答の間の関係を予測するために多くの努力が行われています。
ただし、以前に提案された方法は、特に高次構造を持つ大規模データの場合、テンソル データ内の構造情報が失われるか、法外に高価な時間コストがかかります。
このような問題に対処するために、私たちはスパースおよび低ランクのテンソル回帰 (SLTR) モデルを提案します。
私たちのモデルは、 $\ell_1$ ノルムとテンソル核ノルムを直接適用することで、テンソル係数のスパース性と低順位性を強制し、テンソルの構造情報を保存します。
解決手順をスケーラブルかつ効率的にするために、SLTR は並列で簡単に実装できる近位勾配法を利用します。
いくつかのシミュレートされたデータセットと 1 つのビデオ アクション認識データセットで SLTR を評価します。
実験結果は、以前のモデルと比較して、SLTR ははるかに少ない時間コストでより良いソリューションを取得できることを示しています。
さらに、私たちのモデルの予測は、ビデオ データセットに関して意味のある解釈を示しています。

要約(オリジナル)

Recently, tensor data (or multidimensional array) have been generated in many modern applications, such as functional magnetic resonance imaging (fMRI) in neuroscience and videos in video analysis. Many efforts are made in recent years to predict the relationship between tensor features and univariate responses. However, previously proposed methods either lose structural information within tensor data or have prohibitively expensive time costs, especially for large-scale data with high-order structures. To address such problems, we propose the Sparse and Low-rank Tensor Regression (SLTR) model. Our model enforces sparsity and low-rankness of the tensor coefficient by directly applying $\ell_1$ norm and tensor nuclear norm, such that it preserves structural information of the tensor. To make the solving procedure scalable and efficient, SLTR makes use of the proximal gradient method, which can be easily implemented parallelly. We evaluate SLTR on several simulated datasets and one video action recognition dataset. Experiment results show that, compared with previous models, SLTR can obtain a better solution with much fewer time costs. Moreover, our model’s predictions exhibit meaningful interpretations on the video dataset.

arxiv情報

著者 Jiaqi Zhang,Yinghao Cai,Zhaoyang Wang,Beilun Wang
発行日 2023-08-09 16:17:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク