要約
ChatGPT や GPT-4 などの大規模言語モデル (LLM) の目覚ましい成果と急速な進歩は、量的投資におけるその計り知れない可能性を示しています。
トレーダーはこれらの LLM を効果的に活用して、金融ニュースを分析し、株式リターンを正確に予測できます。
しかし、LLM を既存の定量的モデルに統合すると、LLM 内に埋め込まれた意味論的情報の活用が不十分であることと、LLM 内の潜在情報を既存の定量的ストック特徴と調整することが困難であるという 2 つの主な課題が生じます。
これらの課題を克服するために、2 つのコンポーネントからなる新しいフレームワークを提案します。
最初のコンポーネントであるローカル-グローバル (LG) モデルは、グローバル情報をモデル化するための 3 つの異なる戦略を導入します。
これらのアプローチはそれぞれ、ストック機能、LLM の機能、および 2 つのパラダイムを組み合わせたハイブリッド手法に基づいています。
2 番目のコンポーネントである自己相関強化学習 (SCRL) は、LLM によって生成された金融ニュースの埋め込みを、同じ意味空間内の株式特徴と調整することに焦点を当てています。
当社のフレームワークを実装することにより、特に中国 A 株市場の株式特性のみに依存するモデルと比較して、ランク情報係数とリターンにおいて優れたパフォーマンスを実証しました。
要約(オリジナル)
The remarkable achievements and rapid advancements of Large Language Models (LLMs) such as ChatGPT and GPT-4 have showcased their immense potential in quantitative investment. Traders can effectively leverage these LLMs to analyze financial news and predict stock returns accurately. However, integrating LLMs into existing quantitative models presents two primary challenges: the insufficient utilization of semantic information embedded within LLMs and the difficulties in aligning the latent information within LLMs with pre-existing quantitative stock features. We propose a novel framework consisting of two components to surmount these challenges. The first component, the Local-Global (LG) model, introduces three distinct strategies for modeling global information. These approaches are grounded respectively on stock features, the capabilities of LLMs, and a hybrid method combining the two paradigms. The second component, Self-Correlated Reinforcement Learning (SCRL), focuses on aligning the embeddings of financial news generated by LLMs with stock features within the same semantic space. By implementing our framework, we have demonstrated superior performance in Rank Information Coefficient and returns, particularly compared to models relying only on stock features in the China A-share market.
arxiv情報
| 著者 | Yujie Ding,Shuai Jia,Tianyi Ma,Bingcheng Mao,Xiuze Zhou,Liuliu Li,Dongming Han |
| 発行日 | 2023-10-09 11:34:18+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google