要約
この論文では、金融ニュースのマルチタスク分析のために Llama 2 大規模言語モデル (LLM) を微調整する可能性を検討しています。
微調整には、PEFT/LoRA ベースのアプローチが使用されました。
この研究では、金融市場の観点からテキストを分析し、テキストの要点を強調し、テキストを要約し、適切な感情を持つ固有表現を抽出するというタスクに向けてモデルが微調整されました。
得られた結果は、微調整された Llama 2 モデルが、指定された応答構造を使用してマルチタスクの金融ニュース分析を実行できること、応答の一部を構造化テキストにすること、データの別の部分をさらなる処理のために JSON 形式にすることができることを示しています。
名前付きエンティティの抽出されたセンチメントは、定量的なターゲット変数を使用した教師あり機械学習モデルの予測特徴と見なすことができます。
要約(オリジナル)
The paper considers the possibility to fine-tune Llama 2 Large Language Model (LLM) for the multitask analysis of financial news. For fine-tuning, the PEFT/LoRA based approach was used. In the study, the model was fine-tuned for the following tasks: analysing a text from financial market perspectives, highlighting main points of a text, summarizing a text and extracting named entities with appropriate sentiments. The obtained results show that the fine-tuned Llama 2 model can perform a multitask financial news analysis with a specified structure of response, part of response can be a structured text and another part of data can have JSON format for further processing. Extracted sentiments for named entities can be considered as predictive features in supervised machine learning models with quantitative target variables.
arxiv情報
著者 | Bohdan M. Pavlyshenko |
発行日 | 2023-08-24 18:58:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google