要約
タイトル:Few-shot関係抽出のために大規模言語モデルの力を解放するには?
要約:大規模言語モデルは広範な自然言語処理タスクを革命化してきたが、大規模言語モデルを用いたfew-shot関係抽出についてはあまり徹底的に研究されていない。本研究では、GPT-3.5を用いたfew-shot関係抽出において、コンテキスト学習とデータ生成の2つの主要手法を包括的に探究する。few-shot性能を向上させるために、タスクに関連する指示とスキーマに制約されたデータ生成を提案する。コンテキスト学習によって、過去のプロンプト学習アプローチと同等のパフォーマンスが得られ、大規模言語モデルを用いたデータ生成により、従来の解決策を向上させ、4つの広く研究されている関係抽出データセットにおいて新しい最先端のfew-shot結果を得ることができた。大規模言語モデルのfew-shot関係抽出における能力について今後の研究につながることを期待している。コードは\url{https://github.com/zjunlp/DeepKE/tree/main/example/llm}で入手可能。
要点:
– 大規模言語モデルを用いたfew-shot関係抽出について、コンテキスト学習とデータ生成の2つの手法を包括的に探究する。
– タスクに関連する指示とスキーマに制約されたデータ生成を提案し、few-shot性能を向上させる。
– コンテキスト学習によって、過去のプロンプト学習アプローチと同等のパフォーマンスが得られる。
– 大規模言語モデルを用いたデータ生成により、4つの広く研究されている関係抽出データセットにおいて新しい最先端のfew-shot結果を得ることができる。
– 大規模言語モデルのfew-shot関係抽出における能力について今後の研究につながることを期待している。
– コードは\url{https://github.com/zjunlp/DeepKE/tree/main/example/llm}で入手可能。
要約(オリジナル)
Scaling language models have revolutionized widespread NLP tasks, yet little comprehensively explored few-shot relation extraction with large language models. In this paper, we investigate principal methodologies, in-context learning and data generation, for few-shot relation extraction via GPT-3.5 through exhaustive experiments. To enhance few-shot performance, we further propose task-related instructions and schema-constrained data generation. We observe that in-context learning can achieve performance on par with previous prompt learning approaches, and data generation with the large language model can boost previous solutions to obtain new state-of-the-art few-shot results on four widely-studied relation extraction datasets. We hope our work can inspire future research for the capabilities of large language models in few-shot relation extraction. Code is available in \url{https://github.com/zjunlp/DeepKE/tree/main/example/llm.
arxiv情報
著者 | Xin Xu,Yuqi Zhu,Xiaohan Wang,Ningyu Zhang |
発行日 | 2023-05-02 15:55:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI