RexUIE: A Recursive Method with Explicit Schema Instructor for Universal Information Extraction

要約

タイトル: 明示的スキーマインストラクタを持つ再帰的メソッドRexUIEによる普遍的な情報抽出
要約:
– 普遍的情報抽出は、異なるターゲット、異種構造、および需要に応じたスキーマの要求による課題に対する関心のある領域である。
– 一方、従来の研究では、Named Entity Recognition(NER)やRelation Extraction(RE)などのタスクを統一することで、限定的な成功しか収められておらず、例えばクワドラプルやクインタプルなどの一般的なスキーマを抽出する場合には認証されていないUIEモデルには至っていなかった。
– さらに、これらのモデルは暗黙的な構造スキーマインストラクタを使用していたため、タイプ間の不正なリンクにつながり、モデルの汎化および低資源シナリオでのパフォーマンスに影響を与える可能性があった。
– 本研究では、ほぼ全ての抽出スキーマを包括する形式化された定義で認証されたUIEを再定義する。
– 私たちは認証されていないUIEを導入する最初の人々であり、また任意の種類のスキーマに対してUIEを提供していると考えられている。
– さらに、私たちはRexUIEを提案し、これはUIEのための明示的スキーマインストラクタと再帰的メソッドである。
– 異なるタイプの間の干渉を回避するために、位置IDおよびAttention Maskマトリックスをリセットする。
– RexUIEはfull-shotおよびfew-shot設定の両方で強いパフォーマンスを示し、複雑なスキーマを抽出するタスクにおいてState-of-the-Artの結果を達成している。

要約(オリジナル)

Universal Information Extraction (UIE) is an area of interest due to the challenges posed by varying targets, heterogeneous structures, and demand-specific schemas. However, previous works have only achieved limited success by unifying a few tasks, such as Named Entity Recognition (NER) and Relation Extraction (RE), which fall short of being authentic UIE models particularly when extracting other general schemas such as quadruples and quintuples. Additionally, these models used an implicit structural schema instructor, which could lead to incorrect links between types, hindering the model’s generalization and performance in low-resource scenarios. In this paper, we redefine the authentic UIE with a formal formulation that encompasses almost all extraction schemas. To the best of our knowledge, we are the first to introduce UIE for any kind of schemas. In addition, we propose RexUIE, which is a Recursive Method with Explicit Schema Instructor for UIE. To avoid interference between different types, we reset the position ids and attention mask matrices. RexUIE shows strong performance under both full-shot and few-shot settings and achieves State-of-the-Art results on the tasks of extracting complex schemas.

arxiv情報

著者 Chengyuan Liu,Fubang Zhao,Yangyang Kang,Jingyuan Zhang,Xiang Zhou,Changlong Sun,Fei Wu,Kun Kuang
発行日 2023-04-28 11:28:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL パーマリンク