Recovery of Future Data via Convolution Nuclear Norm Minimization

要約

本論文では、時系列予測(TSF)の問題を圧縮センシングの観点から研究する。まず、TSFをより包括的な問題として、任意の方法でサンプリングしたエントリの部分集合からテンソルを復元するTensor Completion with arbitrary sampling (TCAS)と呼ばれる問題に変換する。タッカー低ランクの枠組みでは、任意に選択した項目から目的のテンソルを特定することは理論的に不可能であることが知られているが、本研究では、よく知られたフーリエスパースパース性を一般化した畳込み低ランクという新しい概念のもとで、TCASが実際に取り組むことが可能であることを明らかにする。そして、Convolution Nuclear Norm Minimization (CNNM)と呼ばれる凸プログラムを導入し、CNNMがあるサンプリング条件(対象テンソルの畳み込みランクに依存する)さえ守れば、TCASを解くのに成功することを証明する。この理論は、与えられた数の予測を行うために必要な最小のサンプリングサイズは何かという基本的な問題に対して意味のある解答を提供する。一変量時系列、画像、動画に対する実験では、有望な結果が得られている。

要約(オリジナル)

This paper studies the problem of time series forecasting (TSF) from the perspective of compressed sensing. First of all, we convert TSF into a more inclusive problem called tensor completion with arbitrary sampling (TCAS), which is to restore a tensor from a subset of its entries sampled in an arbitrary manner. While it is known that, in the framework of Tucker low-rankness, it is theoretically impossible to identify the target tensor based on some arbitrarily selected entries, in this work we shall show that TCAS is indeed tackleable in the light of a new concept called convolutional low-rankness, which is a generalization of the well-known Fourier sparsity. Then we introduce a convex program termed Convolution Nuclear Norm Minimization (CNNM), and we prove that CNNM succeeds in solving TCAS as long as a sampling condition–which depends on the convolution rank of the target tensor–is obeyed. This theory provides a meaningful answer to the fundamental question of what is the minimum sampling size needed for making a given number of forecasts. Experiments on univariate time series, images and videos show encouraging results.

arxiv情報

著者 Guangcan Liu,Wayne Zhang
発行日 2022-08-03 13:26:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.IT, cs.LG, math.IT パーマリンク