FinTral: A Family of GPT-4 Level Multimodal Financial Large Language Models

要約

FinTral は、Mistral-7b モデルに基づいて構築され、財務分析向けに調整された最先端のマルチモーダル大規模言語モデル (LLM) スイートです。
FinTral は、テキスト、数値、表、画像データを統合します。
この作業のために厳選したテキストおよびビジュアル データセットの大規模なコレクションを活用することで、ドメイン固有の事前トレーニング、命令の微調整、および RLAIF トレーニングによって FinTral を強化します。
また、金融領域の幻覚を含む、評価用の 9 つのタスクと 25 のデータセットを特徴とする広範なベンチマークも紹介します。
FinTral-DPO-T&R と呼ばれる、高度なツールと検索手法を使用した直接優先最適化でトレーニングされた当社の FinTral モデルは、優れたゼロショット パフォーマンスを示します。
すべてのタスクで ChatGPT-3.5 を上回り、9 タスク中 5 タスクで GPT-4 を上回り、AI 主導の金融テクノロジーの大幅な進歩を示しています。
また、FinTral には、さまざまな金融状況におけるリアルタイム分析と意思決定において優れた潜在力があることも実証します。
\textit{FinTral} の GitHub リポジトリは、\url{https://github.com/UBC-NLP/fintral} で利用できます。

要約(オリジナル)

We introduce FinTral, a suite of state-of-the-art multimodal large language models (LLMs) built upon the Mistral-7b model and tailored for financial analysis. FinTral integrates textual, numerical, tabular, and image data. We enhance FinTral with domain-specific pretraining, instruction fine-tuning, and RLAIF training by exploiting a large collection of textual and visual datasets we curate for this work. We also introduce an extensive benchmark featuring nine tasks and 25 datasets for evaluation, including hallucinations in the financial domain. Our FinTral model trained with direct preference optimization employing advanced Tools and Retrieval methods, dubbed FinTral-DPO-T&R, demonstrates an exceptional zero-shot performance. It outperforms ChatGPT-3.5 in all tasks and surpasses GPT-4 in five out of nine tasks, marking a significant advancement in AI-driven financial technology. We also demonstrate that FinTral has the potential to excel in real-time analysis and decision-making in diverse financial contexts. The GitHub repository for \textit{FinTral} is available at \url{https://github.com/UBC-NLP/fintral}.

arxiv情報

著者 Gagan Bhatia,El Moatez Billah Nagoudi,Hasan Cavusoglu,Muhammad Abdul-Mageed
発行日 2024-06-13 17:24:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク