Feature-aligned N-BEATS with Sinkhorn divergence

要約

本研究では、単変量時系列予測問題の領域一般化モデルとして、特徴整合 N-BEATS を提案します。
提案されたモデルは、N-BEATS (Oreshkin et al. [34]) の二重残差スタッキング アーキテクチャを表現学習フレームワークに拡張したものです。
このモデルは、各スタック内の N-BEATS の残差演算子の複雑な構成によって引き起こされる限界特徴確率測定 (つまり、複数のソース ドメインのプッシュフォワード測定) を含む新しい構造であり、参照されるエントロピー正則化ワッサーシュタイン距離を介してそれらをスタックごとに整列させます。
からシンクホーン分岐として (Genevay et al. [14])。
損失関数は、複数のソース ドメインの典型的な予測損失と、シンクホーン発散で計算されたアライメント損失で構成されます。これにより、モデルは、N-BEATS の解釈可能な設計を維持しながら、複数のソース データ シーケンスにわたって不変の特徴をスタックごとに学習できます。
提案されたアプローチの包括的な実験評価を実施し、その結果は、元の N-BEATS に基づく方法と比較して、モデルの予測および一般化機能を実証します。

要約(オリジナル)

In this study, we propose Feature-aligned N-BEATS as a domain generalization model for univariate time series forecasting problems. The proposed model is an extension of the doubly residual stacking architecture of N-BEATS (Oreshkin et al. [34]) into a representation learning framework. The model is a new structure that involves marginal feature probability measures (i.e., pushforward measures of multiple source domains) induced by the intricate composition of residual operators of N-BEATS in each stack and aligns them stack-wise via an entropic regularized Wasserstein distance referred to as the Sinkhorn divergence (Genevay et al. [14]). The loss function consists of a typical forecasting loss for multiple source domains and an alignment loss calculated with the Sinkhorn divergence, which allows the model to learn invariant features stack-wise across multiple source data sequences while retaining N-BEATS’s interpretable design. We conduct a comprehensive experimental evaluation of the proposed approach and the results demonstrate the model’s forecasting and generalization capabilities in comparison with methods based on the original N-BEATS.

arxiv情報

著者 Myeongho Jeon,Myungjoo Kang,Joonhun Lee,Kyunghyun Park
発行日 2023-05-24 14:32:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, math.OC, math.PR パーマリンク