要約
大規模言語モデル (LLM) は、多くの下流タスクで良好に実行されることが示されています。
転移学習により、LLM は事前トレーニング中に対象とならなかったスキルを習得できるようになります。
財務面では、LLM が確立されたベンチマークを上回ることがあります。
この論文では、企業の信用格付けを予測するタスクにおいて LLM がどの程度うまく機能しているかを調査します。
LLM はテキスト情報のエンコードには非常に優れていますが、数値データやマルチモーダル データのエンコードに関しては、従来の方法も依然として非常に競争力があることを示します。
私たちのタスクでは、現在の LLM は、ファンダメンタルズ データとマクロ経済データを高密度のテキストベースの埋め込み機能と組み合わせた、より伝統的な XGBoost アーキテクチャよりもパフォーマンスが悪くなります。
要約(オリジナル)
Large Language Models (LLMs) have been shown to perform well for many downstream tasks. Transfer learning can enable LLMs to acquire skills that were not targeted during pre-training. In financial contexts, LLMs can sometimes beat well-established benchmarks. This paper investigates how well LLMs perform in the task of forecasting corporate credit ratings. We show that while LLMs are very good at encoding textual information, traditional methods are still very competitive when it comes to encoding numeric and multimodal data. For our task, current LLMs perform worse than a more traditional XGBoost architecture that combines fundamental and macroeconomic data with high-density text-based embedding features.
arxiv情報
著者 | Felix Drinkall,Janet B. Pierrehumbert,Stefan Zohren |
発行日 | 2025-01-07 09:46:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google