Robust incremental learning pipelines for temporal tabular datasets with distribution shifts

要約

【タイトル】
分布シフトのある時間系表形式データに対する堅牢なインクリメンタル学習パイプライン

【要約】
この論文は、一般的に使用可能な表形式と時系列予測モデルを構築ブロックとして、分布変化に適応するための堅牢なインクリメンタル学習パイプラインを回帰課題のために提供している。データ依存の特徴量エンジニアリング方法が不要であるため、パイプラインはすべての標準化されたデータセットに対して普遍的である。自己類似性の概念を用いて、パイプラインは、勾配ブースティング決定木とネットワークという2つの基本的な機械学習モデルの構築ブロックのみを使用して、任意の必要な複雑さのモデルを構築する。パイプラインは効率的であり、専門的なニューラルアーキテクチャは使用されず、各モデル構築ブロックを独立してトレーニングできる。パイプラインは、正常ではない状況下での堅牢なパフォーマンス(レジームの変化、fat-tailed分布、信号対雑音比の低下など)を示すことが証明されている。

要約(オリジナル)

In this paper, we present a robust incremental learning pipeline for regression tasks on temporal tabular datasets. Using commonly available tabular and time-series prediction models as building blocks, a machine-learning pipeline is built incrementally to adapt to distributional shifts. The pipeline is universal to all standardised datasets as no data-dependent feature engineering methods is required. Using the concept of self-similarity, the pipeline uses only two basic building blocks of ML models, gradient boosting decision trees and networks to build models for any required complexity. The pipeline is efficient as no specialised neural architectures are used and each model building block can be independently trained. The pipeline is demonstrated to have robust performances under adverse situations such as regime changes, fat-tailed distributions and low signal-to-noise ratios.

arxiv情報

著者 Thomas Wong,Mauricio Barahona
発行日 2023-05-03 09:28:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, q-fin.MF パーマリンク