Functional Bayesian Tucker Decomposition for Continuous-indexed Tensor Data

要約

タッカー分解は、マルチアスペクト データを処理するための強力なテンソル モデルです。
これは、コア テンソルとオブジェクト表現 (因子) のセットの間の相互作用としてグリッド構造データを分解することによって、低ランクの特性を示します。
このような分解の基本的な仮定は、データ エントリの個別のインデックスに対応する、各側面またはモードに有限のオブジェクトが存在するということです。
ただし、現実世界のデータの多くは、設定の中で自然に提示されるものではありません。
たとえば、地理データは緯度と経度の座標の連続インデックスとして表現されるため、テンソル モデルを直接当てはめることはできません。
タッカー分解をそのようなシナリオに一般化するために、関数ベイジアン タッカー分解 (FunBaT) を提案します。
連続インデックス付きデータを、Tucker コアと潜在関数のグループの間の相互作用として扱います。
潜在関数をモデル化する関数事前分布としてガウス過程 (GP) を使用し、計算コストを削減するために等価確率微分方程式 (SDE) を構築することで GP を事前状態空間に変換します。
高度なメッセージパッシング技術に基づいて、スケーラブルな事後近似を行うための効率的な推論アルゴリズムがさらに開発されています。
私たちの方法の利点は、合成データといくつかの現実世界のアプリケーションの両方で示されています。

要約(オリジナル)

Tucker decomposition is a powerful tensor model to handle multi-aspect data. It demonstrates the low-rank property by decomposing the grid-structured data as interactions between a core tensor and a set of object representations (factors). A fundamental assumption of such decomposition is that there were finite objects in each aspect or mode, corresponding to discrete indexes of data entries. However, many real-world data are not naturally posed in the setting. For example, geographic data is represented as continuous indexes of latitude and longitude coordinates, and cannot fit tensor models directly. To generalize Tucker decomposition to such scenarios, we propose Functional Bayesian Tucker Decomposition (FunBaT). We treat the continuous-indexed data as the interaction between the Tucker core and a group of latent functions. We use Gaussian processes (GP) as functional priors to model the latent functions, and then convert the GPs into a state-space prior by constructing an equivalent stochastic differential equation (SDE) to reduce computational cost. An efficient inference algorithm is further developed for scalable posterior approximation based on advanced message-passing techniques. The advantage of our method is shown in both synthetic data and several real-world applications.

arxiv情報

著者 Shikai Fang,Xin Yu,Zheng Wang,Shibo Li,Mike Kirby,Shandian Zhe
発行日 2023-11-08 16:54:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク