Unlocking Instructive In-Context Learning with Tabular Prompting for Relational Triple Extraction

要約

リレーショナル トリプル抽出 (RTE) のインコンテキスト学習 (ICL) は有望なパフォーマンスを達成していますが、(1) 効果的なプロンプトを設計する方法、および (2) 適切なデモンストレーションを選択する方法という 2 つの重要な課題に依然として直面しています。
しかし、既存の方法はこれらの課題に適切に対処できていません。
一方で、彼らは通常、RTE タスクをテキスト対テキストのプロンプト形式にリキャストしますが、これは不自然であり、事前トレーニング時の出力形式と大規模言語モデル (LLM) の推論時間の間に不一致が生じます。
一方で、それらは表面的な自然言語の特徴のみを利用しており、サンプルの選択において三重の意味論の考慮が欠けています。
これらの問題は、RTE 用 ICL のパフォーマンス向上の妨げとなっているため、私たちは迅速な設計とサンプル選択の課題に同時に取り組むことを目指しています。
この目的を達成するために、RTE 用の表形式のプロンプト (\textsc{TableIE}) を考案します。これは、RTE タスクをテーブル生成タスクにフレーム化して、明示的な構造化情報を ICL に組み込み、出力の RTE 構造への変換を容易にします。
次に、大量のラベルなしサンプルの内部トリプルセマンティクスを考慮して、少数のサンプルのみを選択して注釈を付ける、有益なインコンテキスト学習 (I$^2$CL) を提案します。

要約(オリジナル)

The in-context learning (ICL) for relational triple extraction (RTE) has achieved promising performance, but still encounters two key challenges: (1) how to design effective prompts and (2) how to select proper demonstrations. Existing methods, however, fail to address these challenges appropriately. On the one hand, they usually recast RTE task to text-to-text prompting formats, which is unnatural and results in a mismatch between the output format at the pre-training time and the inference time for large language models (LLMs). On the other hand, they only utilize surface natural language features and lack consideration of triple semantics in sample selection. These issues are blocking improved performance in ICL for RTE, thus we aim to tackle prompt designing and sample selection challenges simultaneously. To this end, we devise a tabular prompting for RTE (\textsc{TableIE}) which frames RTE task into a table generation task to incorporate explicit structured information into ICL, facilitating conversion of outputs to RTE structures. Then we propose instructive in-context learning (I$^2$CL) which only selects and annotates a few samples considering internal triple semantics in massive unlabeled samples.

arxiv情報

著者 Guozheng Li,Wenjun Ke,Peng Wang,Zijie Xu,Ke Ji,Jiajun Liu,Ziyu Shang,Qiqing Luo
発行日 2024-02-21 12:12:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク