要約
このペーパーでは、大規模な言語モデル(LLM)の財務タスクへの適用を調査します。
Open FinllMリーダーボードをベンチマークとして使用して、基礎モデルを微調整しました。
QWEN2.5とDeepSeek-R1に基づいて、監視施設微調整(SFT)、直接選好最適化(DPO)、補強学習(RL)などの手法を採用して、金融能力を高めました。
微調整されたモデルは、幅広い財務タスクにわたって大幅なパフォーマンスの向上を実証しました。
さらに、金融領域のデータスケーリング法を測定しました。
私たちの仕事は、金融アプリケーションにおける大規模な言語モデル(LLM)の可能性を示しています。
要約(オリジナル)
This paper investigates the application of large language models (LLMs) to financial tasks. We fine-tuned foundation models using the Open FinLLM Leaderboard as a benchmark. Building on Qwen2.5 and Deepseek-R1, we employed techniques including supervised fine-tuning (SFT), direct preference optimization (DPO), and reinforcement learning (RL) to enhance their financial capabilities. The fine-tuned models demonstrated substantial performance gains across a wide range of financial tasks. Moreover, we measured the data scaling law in the financial domain. Our work demonstrates the potential of large language models (LLMs) in financial applications.
arxiv情報
| 著者 | Varun Rao,Youran Sun,Mahendra Kumar,Tejas Mutneja,Agastya Mukherjee,Haizhao Yang |
| 発行日 | 2025-04-17 17:42:02+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google