Fin-R1: A Large Language Model for Financial Reasoning through Reinforcement Learning

要約

大きな言語モデルの推論は、さまざまなドメインで急速に進化しています。
ただし、複雑な財務タスクを処理する能力には、詳細な調査が必要です。
この論文では、FIN-R1を紹介します。Fin-R1は、金融セクター向けに特別に設計された大きな言語モデルを紹介します。
FIN-R1は、2段階のアーキテクチャを使用して構築され、DeepSeek-R1に基づいて蒸留および処理された金融推論データセットを活用します。
監視された微調整(SFT)および強化学習(RL)トレーニングにより、さまざまな財政的推論タスクにわたって70億のパラメーターサイズで、DeepSeek-R1に近いパフォーマンスを実証します。
私たちの評価において、これらのLLM間のFINQAおよびConvfinqAタスクの最先端(SOTA)を達成し、他のタスクでも大きなモデルを上回ります。
FIN-R1は、強力な推論と意思決定機能を紹介し、金融領域で遭遇するさまざまな問題の解決策を提供します。
私たちのコードは、https://github.com/sufe-aiflm-lab/fin-r1で入手できます。

要約(オリジナル)

Reasoning large language models are rapidly evolving across various domains. However, their capabilities in handling complex financial tasks still require in-depth exploration. In this paper, we introduce Fin-R1, a reasoning large language model specifically designed for the financial sector. Fin-R1 is built using a two-stage architecture, leveraging a financial reasoning dataset distilled and processed based on DeepSeek-R1. Through supervised fine-tuning (SFT) and reinforcement learning (RL) training, it demonstrates performance close to DeepSeek-R1 with a parameter size of 7 billion across a range of financial reasoning tasks. It achieves the state-of-the-art (SOTA) in the FinQA and ConvFinQA tasks between those LLMs in our evaluation, surpassing larger models in other tasks as well. Fin-R1 showcases strong reasoning and decision-making capabilities, providing solutions to various problems encountered in the financial domain. Our code is available at https://github.com/SUFE-AIFLM-Lab/Fin-R1.

arxiv情報

著者 Zhaowei Liu,Xin Guo,Fangqi Lou,Lingfeng Zeng,Jinyi Niu,Zixuan Wang,Jiajie Xu,Weige Cai,Ziwei Yang,Xueqian Zhao,Chao Li,Sheng Xu,Dezhi Chen,Yun Chen,Zuo Bai,Liwen Zhang
発行日 2025-03-21 01:57:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク