Recurrent Neural Goodness-of-Fit Test for Time Series

要約

時系列データは、正確な予測と意思決定が高度なモデリング技術に依存する金融やヘルスケアなどのさまざまな分野で重要です。
生成モデルは、時系列に固有の複雑なダイナミクスを捉える上で大きな期待を示していますが、そのパフォーマンスを評価することは依然として大きな課題です。
従来の評価指標は、特徴の時間的な依存性と潜在的な高次元性により不十分です。
この論文では、生成時系列モデルを評価するための新規で統計的に厳密なフレームワークである REcurrent NeurAL (RENAL) 適合度テストを提案します。
リカレント ニューラル ネットワークを活用することで、時系列を条件付きで独立したデータ ペアに変換し、データ内の時間依存性にカイ二乗ベースの適合度テストを適用できるようにします。
このアプローチは、特に時間シーケンスが限られている設定において、生成モデルの品質を評価するための堅牢で理論に基づいたソリューションを提供します。
私たちは、合成データセットと現実世界のデータセットの両方にわたって私たちの手法の有効性を実証し、信頼性と精度の点で既存の手法を上回ります。
私たちの手法は、時系列生成モデルの評価における重大なギャップを埋め、実用的かつ一か八かのアプリケーションに適応できるツールを提供します。

要約(オリジナル)

Time series data are crucial across diverse domains such as finance and healthcare, where accurate forecasting and decision-making rely on advanced modeling techniques. While generative models have shown great promise in capturing the intricate dynamics inherent in time series, evaluating their performance remains a major challenge. Traditional evaluation metrics fall short due to the temporal dependencies and potential high dimensionality of the features. In this paper, we propose the REcurrent NeurAL (RENAL) Goodness-of-Fit test, a novel and statistically rigorous framework for evaluating generative time series models. By leveraging recurrent neural networks, we transform the time series into conditionally independent data pairs, enabling the application of a chi-square-based goodness-of-fit test to the temporal dependencies within the data. This approach offers a robust, theoretically grounded solution for assessing the quality of generative models, particularly in settings with limited time sequences. We demonstrate the efficacy of our method across both synthetic and real-world datasets, outperforming existing methods in terms of reliability and accuracy. Our method fills a critical gap in the evaluation of time series generative models, offering a tool that is both practical and adaptable to high-stakes applications.

arxiv情報

著者 Aoran Zhang,Wenbin Zhou,Liyan Xie,Shixiang Zhu
発行日 2024-11-15 17:58:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク