要約
大規模言語モデル (LLM) は、金融業界における自然言語処理アプリケーションを進歩させるための強力なツールとなっています。
しかし、既存の金融 LLM は、幻覚や表面的なパラメータ トレーニングなどの課題に直面することが多く、特に金融コンピューティングや機械読解 (MRC) において最適なパフォーマンスが得られません。
これらの問題に対処するために、私たちは SNFinLLM という中国金融ドメイン向けに特別に設計された新しい大規模言語モデルを提案します。
SNFinLLM は、質問への回答、財務調査レポートの要約、センチメントの分析、財務計算の実行など、ドメイン固有のタスクに優れています。
次に、教師あり微調整 (SFT) を実行して、さまざまな金融ドメイン全体でモデルの能力を強化します。
具体的には、広範な財務データを収集し、金融領域のニュース記事、専門論文、調査レポートで構成される高品質な指導データセットを作成します。
ドメイン固有のデータセットと一般的なデータセットの両方を利用して、確立されたオープンソースの基本モデルで継続的な事前トレーニングを進め、その結果、SNFinLLM ベースが得られます。
これに続いて、教師あり微調整 (SFT) を実行して、複数の財務タスクにわたってモデルの機能を強化します。
重要なのは、モデルを人間の好みに合わせて調整するために、単純な Direct Preference Optimization (DPO) 手法を採用していることです。
金融ベンチマークと当社の評価データセットに対して行われた広範な実験により、SNFinLLM が他の最先端の金融言語モデルよりも著しく優れていることが実証されました。
詳細については、こちらのデモビデオをご覧ください: https://www.youtube.com/watch?v=GYT-65HZwus。
要約(オリジナル)
Large language models (LLMs) have become powerful tools for advancing natural language processing applications in the financial industry. However, existing financial LLMs often face challenges such as hallucinations or superficial parameter training, resulting in suboptimal performance, particularly in financial computing and machine reading comprehension (MRC). To address these issues, we propose a novel large language model specifically designed for the Chinese financial domain, named SNFinLLM. SNFinLLM excels in domain-specific tasks such as answering questions, summarizing financial research reports, analyzing sentiment, and executing financial calculations. We then perform the supervised fine-tuning (SFT) to enhance the model’s proficiency across various financial domains. Specifically, we gather extensive financial data and create a high-quality instruction dataset composed of news articles, professional papers, and research reports of finance domain. Utilizing both domain-specific and general datasets, we proceed with continuous pre-training on an established open-source base model, resulting in SNFinLLM-base. Following this, we engage in supervised fine-tuning (SFT) to bolster the model’s capability across multiple financial tasks. Crucially, we employ a straightforward Direct Preference Optimization (DPO) method to better align the model with human preferences. Extensive experiments conducted on finance benchmarks and our evaluation dataset demonstrate that SNFinLLM markedly outperforms other state-of-the-art financial language models. For more details, check out our demo video here: https://www.youtube.com/watch?v=GYT-65HZwus.
arxiv情報
著者 | Shujuan Zhao,Lingfeng Qiao,Kangyang Luo,Qian-Wen Zhang,Junru Lu,Di Yin |
発行日 | 2024-08-05 08:24:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google