要約
ガウス混合モデル(GMM)、機能エンジニアリング、機械学習アルゴリズムと組み合わせた経験的モード分解(EMD)の使用を調査し、取引決定を最適化しました。
GameStop、Tesla、およびXRP(Ripple)市場に、それぞれ1時間ごとのキャンドルデータの5年、2年、および1年のサンプルを使用しました。
各市場に15時間のローリングウィンドウを適用して、線形モデルやその他の古典的な機能に基づいていくつかの機能を収集して、次の1時間の動きを予測しました。
その後、GMMフィルタリングアプローチを使用して、これらの市場のクラスターを特定しました。
各クラスターについて、EMDアルゴリズムを適用して、収集された各機能から高、中、低、トレンドコンポーネントを抽出しました。
各市場の密接な価格の変化率に基づいて、市場の動きを分類するために、単純なしきい値アルゴリズムが適用されました。
次に、市場の動きを分類する際に、ランダムフォレスト(RF)やXGBoostを含むさまざまな機械学習モデルのパフォーマンスを評価しました。
取引決定の素朴なランダム選択がベンチマークとして使用され、各結果の等しい確率を想定し、データセットの40%、30%、および20%のモデルをテストするために時間的交差検証アプローチを使用しました。
我々の結果は、EMDを使用して選択された機能を変換することで、特に累積利益によって測定されるように、ランダムフォレストやXGBoostなどのアンサンブル学習アルゴリズムの場合、パフォーマンスが向上することを示しています。
最後に、GMMフィルタリングは、ランダムベースラインの上位パーセンタイルよりも優れた学習アルゴリズムとデータソースの組み合わせの範囲を拡張しました。
要約(オリジナル)
We investigated the use of Empirical Mode Decomposition (EMD) combined with Gaussian Mixture Models (GMM), feature engineering and machine learning algorithms to optimize trading decisions. We used five, two, and one year samples of hourly candle data for GameStop, Tesla, and XRP (Ripple) markets respectively. Applying a 15 hour rolling window for each market, we collected several features based on a linear model and other classical features to predict the next hour’s movement. Subsequently, a GMM filtering approach was used to identify clusters among these markets. For each cluster, we applied the EMD algorithm to extract high, medium, low and trend components from each feature collected. A simple thresholding algorithm was applied to classify market movements based on the percentage change in each market’s close price. We then evaluated the performance of various machine learning models, including Random Forests (RF) and XGBoost, in classifying market movements. A naive random selection of trading decisions was used as a benchmark, which assumed equal probabilities for each outcome, and a temporal cross-validation approach was used to test models on 40%, 30%, and 20% of the dataset. Our results indicate that transforming selected features using EMD improves performance, particularly for ensemble learning algorithms like Random Forest and XGBoost, as measured by accumulated profit. Finally, GMM filtering expanded the range of learning algorithm and data source combinations that outperformed the top percentile of the random baseline.
arxiv情報
著者 | Gabriel R. Palma,Mariusz Skoczeń,Phil Maguire |
発行日 | 2025-03-26 16:12:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google