要約
相関のある多変量時系列データに対する分位点の特徴の選択は常に方法論上の課題であり、未解決の問題です。
この論文では、分位特徴選択時系列 (QFSTS) モデルという名前で、高次元結合分位時系列分析における特徴選択のための一般的なベイジアン次元削減方法論を提案します。
QFSTS モデルは一般的な構造時系列モデルであり、各コンポーネントが直接解釈して時系列モデリングに追加的な寄与をもたらします。
ユーザーが時系列ごとにコンポーネントを追加/削除でき、各時系列が異なるサイズの独自の特定の値のコンポーネントを持つことができるという意味で、その柔軟性は複合的です。
特徴の選択は分位点回帰コンポーネントで実行され、各時系列にはナウキャストを可能にする同時外部予測子の独自のプールがあります。
特徴選択を分位点時系列研究領域に拡張するベイズ手法は、多変量非対称ラプラス分布、スパイクアンドスラブ事前設定、メトロポリス・ヘイスティングスアルゴリズム、およびベイズモデル平均化手法を使用して開発されており、これらはすべてベイズパラダイムで一貫して実装されています。
QFSTS モデルは、トレーニングに必要な小さなデータセットを必要とし、高速に収束します。
広範な検査により、QFSTS モデルが特徴選択、パラメーター推定、予測において優れたパフォーマンスを備えていることが確認されました。
要約(オリジナル)
Quantile feature selection over correlated multivariate time series data has always been a methodological challenge and is an open problem. In this paper, we propose a general Bayesian dimension reduction methodology for feature selection in high-dimensional joint quantile time series analysis, under the name of the quantile feature selection time series (QFSTS) model. The QFSTS model is a general structural time series model, where each component yields an additive contribution to the time series modeling with direct interpretations. Its flexibility is compound in the sense that users can add/deduct components for each time series and each time series can have its own specific valued components of different sizes. Feature selection is conducted in the quantile regression component, where each time series has its own pool of contemporaneous external predictors allowing nowcasting. Bayesian methodology in extending feature selection to the quantile time series research area is developed using multivariate asymmetric Laplace distribution, spike-and-slab prior setup, the Metropolis-Hastings algorithm, and the Bayesian model averaging technique, all implemented consistently in the Bayesian paradigm. The QFSTS model requires small datasets to train and converges fast. Extensive examinations confirmed that the QFSTS model has superior performance in feature selection, parameter estimation, and forecast.
arxiv情報
著者 | Ning Ning |
発行日 | 2023-08-29 13:58:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google