要約
大規模言語モデルの最近の進歩により、一般的なチャットで優れたパフォーマンスが示されています。
ただし、ドメイン固有の機能、特に情報抽出には一定の制限があります。
既知のスキーマや命令から逸脱する自然言語から構造化情報を抽出することは、以前のプロンプトベースの方法では困難であることが証明されています。
このため、私たちは、自然言語から構造化情報を抽出するためのソリューションとして、チャットベースの言語モデルにおけるドメイン固有のモデリングを検討するようになりました。
このペーパーでは、ChatGLM に基づいて構築された革新的な統合情報抽出フレームワークである ChatUIE を紹介します。
同時に、強化学習を使用して、混乱を招く限られたサンプルを含むさまざまなタスクを改善し調整します。
さらに、生成制約を統合して、入力に存在しない要素を生成する問題に対処します。
私たちの実験結果は、ChatUIE がチャット能力をわずかに低下させても、情報抽出のパフォーマンスを大幅に向上できることを示しています。
要約(オリジナル)
Recent advancements in large language models have shown impressive performance in general chat. However, their domain-specific capabilities, particularly in information extraction, have certain limitations. Extracting structured information from natural language that deviates from known schemas or instructions has proven challenging for previous prompt-based methods. This motivated us to explore domain-specific modeling in chat-based language models as a solution for extracting structured information from natural language. In this paper, we present ChatUIE, an innovative unified information extraction framework built upon ChatGLM. Simultaneously, reinforcement learning is employed to improve and align various tasks that involve confusing and limited samples. Furthermore, we integrate generation constraints to address the issue of generating elements that are not present in the input. Our experimental results demonstrate that ChatUIE can significantly improve the performance of information extraction with a slight decrease in chatting ability.
arxiv情報
著者 | Jun Xu,Mengshu Sun,Zhiqiang Zhang,Jun Zhou |
発行日 | 2024-03-08 07:59:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google