Chain of Thought with Explicit Evidence Reasoning for Few-shot Relation Extraction

要約

少数ショットの関係抽出では、限られた数の注釈付きサンプルを使用して、テキスト内の 2 つの特定のエンティティ間の関係のタイプを識別します。
この問題に対するさまざまな解決策は、通常、適応のためのトレーニング プロセスを必要とするメタ学習およびニューラル グラフ技術を適用することによって明らかにされています。
最近、コンテキスト学習戦略は、トレーニングを必要とせずに顕著な結果を示しています。
ゼロショット情報抽出にインコンテキスト学習を利用した研究はすでにほとんどありません。
残念ながら、推論の証拠は、思考連鎖プロンプトの構築中に考慮されないか、暗黙的にモデル化されません。
この論文では、明示的な証拠推論を備えた思考連鎖である CoT-ER と呼ばれる、大規模言語モデルを使用した少数ショット関係抽出のための新しいアプローチを提案します。
特に、CoT-ER はまず、タスク固有の概念レベルの知識を使用して証拠を生成するために大規模な言語モデルを誘導します。
次に、これらの証拠は、関係抽出を促す思考連鎖に明示的に組み込まれます。
実験結果は、FewRel1.0 および FewRel2.0 データセットに対する完全教師あり (100% トレーニング データを使用) の最先端のアプローチと比較して、当社の CoT-ER アプローチ (0% トレーニング データを使用) が競争力のあるパフォーマンスを達成することを示しています。

要約(オリジナル)

Few-shot relation extraction involves identifying the type of relationship between two specific entities within a text, using a limited number of annotated samples. A variety of solutions to this problem have emerged by applying meta-learning and neural graph techniques which typically necessitate a training process for adaptation. Recently, the strategy of in-context learning has been demonstrating notable results without the need of training. Few studies have already utilized in-context learning for zero-shot information extraction. Unfortunately, the evidence for inference is either not considered or implicitly modeled during the construction of chain-of-thought prompts. In this paper, we propose a novel approach for few-shot relation extraction using large language models, named CoT-ER, chain-of-thought with explicit evidence reasoning. In particular, CoT-ER first induces large language models to generate evidences using task-specific and concept-level knowledge. Then these evidences are explicitly incorporated into chain-of-thought prompting for relation extraction. Experimental results demonstrate that our CoT-ER approach (with 0% training data) achieves competitive performance compared to the fully-supervised (with 100% training data) state-of-the-art approach on the FewRel1.0 and FewRel2.0 datasets.

arxiv情報

著者 Xilai Ma,Jing Li,Min Zhang
発行日 2024-03-08 06:51:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク