ESG Classification by Implicit Rule Learning via GPT-4

要約

環境、社会、ガバナンス (ESG) 要因は、より高い投資収益率の指標として広く採用されています。
したがって、大量の Web テキストからシグナルを簡単に抽出する言語モデルを使用して ESG 評価を自動化する取り組みが継続的に行われています。
しかし、格付け会社が評価基準を機密にしているため、最近のアプローチではトレーニングデータが不足しているという問題があります。
この論文では、プロンプト、思考連鎖推論、動的なコンテキスト内学習などの戦略を通じて、GPT-4 のような最先端の言語モデルを未知の ESG 評価基準に適合させることができるかどうかを調査します。
提供されたトレーニング データに基づいてモデルを更新せずに、韓国語の共有タスク ML-ESG-3 インパクト タイプ トラックで 2 位にランクされることで、これらのアプローチの有効性を実証します。
また、プロンプトの調整が、オープンに利用可能な重みを備えた小規模なモデルを活用して財務タスクに対処する言語モデルの能力にどのような影響を与えるかを調査します。
私たちは、財務の下流タスクにおけるパフォーマンスの向上と相関する、より長い一般的な事前トレーニングを観察しています。
私たちの調査結果は、明示的なトレーニング例が不足しているにもかかわらず、複雑で主観的な評価ガイドラインをナビゲートする言語モデルの可能性を示し、財務下流タスク向けのトレーニング不要のソリューションの機会を明らかにしています。

要約(オリジナル)

Environmental, social, and governance (ESG) factors are widely adopted as higher investment return indicators. Accordingly, ongoing efforts are being made to automate ESG evaluation with language models to extract signals from massive web text easily. However, recent approaches suffer from a lack of training data, as rating agencies keep their evaluation metrics confidential. This paper investigates whether state-of-the-art language models like GPT-4 can be guided to align with unknown ESG evaluation criteria through strategies such as prompting, chain-of-thought reasoning, and dynamic in-context learning. We demonstrate the efficacy of these approaches by ranking 2nd in the Shared-Task ML-ESG-3 Impact Type track for Korean without updating the model on the provided training data. We also explore how adjusting prompts impacts the ability of language models to address financial tasks leveraging smaller models with openly available weights. We observe longer general pre-training to correlate with enhanced performance in financial downstream tasks. Our findings showcase the potential of language models to navigate complex, subjective evaluation guidelines despite lacking explicit training examples, revealing opportunities for training-free solutions for financial downstream tasks.

arxiv情報

著者 Hyo Jeong Yun,Chanyoung Kim,Moonjeong Hahm,Kyuri Kim,Guijin Son
発行日 2024-03-22 08:45:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク