要約
タイトル:Prompt-based Zero-shot Relation Extraction with Semantic Knowledge Augmentation(プロンプトベースの半教師あり学習とセマンティック知識補強を用いたゼロショット関係抽出)
要約:
– 既知の関係がない、新しい関係を認識することは、関係三つ組(RTE)の中で課題である。
– これまで、質問回答モデルや関係の説明を基に、既知の関係を用いて、未知の関係を認識する手法が提供されていた。
– 本論文では、新しいルールを作成することにより、既知の関係と未知の関係の間の接続についてのセマンティック情報を補強するプロンプトベースのモデルを提案されている。
– 新しいルールを使用して、既知の関係から未知の関係を補強し、ゼロショット状況で既知の関係から学習されたセマンティック情報を使用するように設計されたプロンプトを実装。
– プロトタイプネットワークを使用して生成された表現の距離を計算し、未知の関係を予測する。
– FewRel、Wiki-ZSL、NYTの3つの公開データセットで行われた広範囲な実験により、本手法がゼロショットシナリオにおいて最良のパフォーマンスを示し、本手法の効果と堅牢性が実証された。
要約(オリジナル)
In relation triplet extraction (RTE), recognizing unseen (new) relations for which there are no training instances is a challenging task. Efforts have been made to recognize unseen relations based on question-answering models or relation descriptions. However, these approaches miss the semantic information about connections between seen and unseen relations. In this paper, We propose a prompt-based model with semantic knowledge augmentation (ZS-SKA) to recognize unseen relations under the zero-shot setting. We present a new word-level analogy-based sentence translation rule and generate augmented instances with unseen relations from instances with seen relations using that new rule. We design prompts with weighted virtual label construction based on an external knowledge graph to integrate semantic knowledge information learned from seen relations. Instead of using the actual label sets in the prompt template, we construct weighted virtual label words. We learn the representations of both seen and unseen relations with augmented instances and prompts. We then calculate the distance between the generated representations using prototypical networks to predict unseen relations. Extensive experiments conducted on three public datasets FewRel, Wiki-ZSL, and NYT, show that ZS-SKA outperforms state-of-the-art methods under the zero-shot scenarios. Our experimental results also demonstrate the effectiveness and robustness of ZS-SKA.
arxiv情報
著者 | Jiaying Gong,Hoda Eldardiry |
発行日 | 2023-05-03 14:49:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI