要約
大規模言語モデル (LLM) は通常、情報抽出 (IE) タスクに対応できず、IE タスクの複雑な指示に従うのが困難です。
主流の位置合わせデータセットには通常 IE データが含まれていないため、これは主に LLM が人間と位置合わせされていないことが原因で発生します。
このペーパーでは、クローズド IE、オープン IE、オンデマンド IE を含むさまざまな IE タスクを効果的に解決するアラインメント LLM である ADELIE (Aligninglarge language moDELs on Information Extraction) を紹介します。
まず、IE 用の高品質なアライメント コーパス IEInstruct を収集して構築します。
次に、IEInstruct の命令チューニングを使用して ADELIE_SFT をトレーニングします。
直接優先最適化 (DPO) 目標を使用して ADELIE_SFT をさらにトレーニングし、ADELIE_DPO を生成します。
さまざまな保持された IE データセットに対する広範な実験により、私たちのモデル (ADELIE_SFT および ADELIE_DPO) がオープンソース モデルの中で最先端 (SoTA) のパフォーマンスを達成していることが実証されました。
私たちは ADELIE の一般的な能力をさらに調査し、実験結果から、ADELIE の一般的な能力が顕著な低下を示さないことが明らかになりました。
さらなる研究を促進するために、コード、データ、モデルを公開します。
要約(オリジナル)
Large language models (LLMs) usually fall short on information extraction (IE) tasks and struggle to follow the complex instructions of IE tasks. This primarily arises from LLMs not being aligned with humans, as mainstream alignment datasets typically do not include IE data. In this paper, we introduce ADELIE (Aligning large language moDELs on Information Extraction), an aligned LLM that effectively solves various IE tasks, including closed IE, open IE, and on-demand IE. We first collect and construct a high-quality alignment corpus IEInstruct for IE. Then we train ADELIE_SFT using instruction tuning on IEInstruct. We further train ADELIE_SFT with direct preference optimization (DPO) objective, resulting in ADELIE_DPO. Extensive experiments on various held-out IE datasets demonstrate that our models (ADELIE_SFT and ADELIE_DPO) achieve state-of-the-art (SoTA) performance among open-source models. We further explore the general capabilities of ADELIE, and experimental results reveal that their general capabilities do not exhibit a noticeable decline. We will release the code, data, and models to facilitate further research.
arxiv情報
著者 | Yunjia Qi,Hao Peng,Xiaozhi Wang,Bin Xu,Lei Hou,Juanzi Li |
発行日 | 2024-05-08 12:24:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google