要約
財務分析のタスクには、主に 2 つの重要な領域が含まれます。それは、株価傾向の予測と、それに対応する財務上の質問への回答です。
現在、機械学習および深層学習アルゴリズム (ML&DL) は株価動向予測に広く適用されており、大きな進歩につながっています。
しかし、これらの方法では予測の理由を提供できず、解釈可能性や推論プロセスが欠如しています。
また、金融ニュースやレポートなどのテキスト情報を統合することはできません。
一方、大規模言語モデル (LLM) は、驚くべきテキストの理解と生成能力を備えています。
しかし、財務トレーニングのデータセットが不足しており、リアルタイムの知識との統合が限られているため、LLM は依然として幻覚に悩まされ、最新の情報に追いつくことができません。
これらの課題に取り組むために、私たちはまず、従来の研究データセット、リアルタイムの財務データ、手書きの思考連鎖 (CoT) データを組み合わせた AlphaFin データセットをリリースします。
これは、財務分析を完了するための LLM のトレーニングにプラスの影響を与えます。
次に、AlphaFin データセットを使用して、財務分析タスクに効果的に取り組むための Stock-Chain と呼ばれる最先端の手法のベンチマークを行います。この手法には、検索拡張生成 (RAG) 技術が統合されています。
財務分析におけるフレームワークの有効性を実証するために、広範な実験が行われています。
要約(オリジナル)
The task of financial analysis primarily encompasses two key areas: stock trend prediction and the corresponding financial question answering. Currently, machine learning and deep learning algorithms (ML&DL) have been widely applied for stock trend predictions, leading to significant progress. However, these methods fail to provide reasons for predictions, lacking interpretability and reasoning processes. Also, they can not integrate textual information such as financial news or reports. Meanwhile, large language models (LLMs) have remarkable textual understanding and generation ability. But due to the scarcity of financial training datasets and limited integration with real-time knowledge, LLMs still suffer from hallucinations and are unable to keep up with the latest information. To tackle these challenges, we first release AlphaFin datasets, combining traditional research datasets, real-time financial data, and handwritten chain-of-thought (CoT) data. It has a positive impact on training LLMs for completing financial analysis. We then use AlphaFin datasets to benchmark a state-of-the-art method, called Stock-Chain, for effectively tackling the financial analysis task, which integrates retrieval-augmented generation (RAG) techniques. Extensive experiments are conducted to demonstrate the effectiveness of our framework on financial analysis.
arxiv情報
著者 | Xiang Li,Zhenyu Li,Chen Shi,Yong Xu,Qing Du,Mingkui Tan,Jun Huang,Wei Lin |
発行日 | 2024-03-19 09:45:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google