Enhancing Financial Sentiment Analysis via Retrieval Augmented Large Language Models

要約

財務センチメント分析は、評価と投資の意思決定にとって重要です。
ただし、従来の NLP モデルは、パラメーターのサイズとトレーニング データセットの範囲によって制限されており、この分野での汎化機能と有効性が妨げられています。
最近、広範なコーパスで事前トレーニングされた大規模言語モデル (LLM) は、その賞賛に値するゼロショット能力により、さまざまな NLP タスクにわたって優れたパフォーマンスを実証しています。
しかし、LLM を金融センチメント分析に直接適用することには課題があります。LLM の事前トレーニング目標とセンチメント ラベルの予測との間に矛盾があるため、予測パフォーマンスが損なわれる可能性があります。
さらに、金融ニュースは簡潔な性質を持ち、十分な文脈が欠如していることが多いため、LLM のセンチメント分析の信頼性が大幅に低下する可能性があります。
これらの課題に対処するために、金融センチメント分析のための検索拡張 LLM フレームワークを導入します。
このフレームワークには、LLM がセンチメント ラベルの予測子として動作するようにする、命令調整された LLM モジュールと、信頼できる外部ソースから追​​加のコンテキストを取得する取得拡張モジュールが含まれています。
従来のモデルや ChatGPT や LLaMA などの LLM と比較してベンチマークを行ったこのアプローチは、精度と F1 スコアで 15\% ~ 48\% のパフォーマンス向上を達成しました。

要約(オリジナル)

Financial sentiment analysis is critical for valuation and investment decision-making. Traditional NLP models, however, are limited by their parameter size and the scope of their training datasets, which hampers their generalization capabilities and effectiveness in this field. Recently, Large Language Models (LLMs) pre-trained on extensive corpora have demonstrated superior performance across various NLP tasks due to their commendable zero-shot abilities. Yet, directly applying LLMs to financial sentiment analysis presents challenges: The discrepancy between the pre-training objective of LLMs and predicting the sentiment label can compromise their predictive performance. Furthermore, the succinct nature of financial news, often devoid of sufficient context, can significantly diminish the reliability of LLMs’ sentiment analysis. To address these challenges, we introduce a retrieval-augmented LLMs framework for financial sentiment analysis. This framework includes an instruction-tuned LLMs module, which ensures LLMs behave as predictors of sentiment labels, and a retrieval-augmentation module which retrieves additional context from reliable external sources. Benchmarked against traditional models and LLMs like ChatGPT and LLaMA, our approach achieves 15\% to 48\% performance gain in accuracy and F1 score.

arxiv情報

著者 Boyu Zhang,Hongyang Yang,Tianyu Zhou,Ali Babar,Xiao-Yang Liu
発行日 2023-10-06 05:40:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, q-fin.ST, q-fin.TR パーマリンク