Small Models Are (Still) Effective Cross-Domain Argument Extractors

要約

効果的なオントロジー転送は、イベント引数抽出 (EAE) に関する最近の研究の主な目標です。
特に、質問応答 (QA) とテンプレート入力 (TI) という 2 つの方法が、この問題に対する有望なアプローチとして浮上しています。
ただし、この転送を実際に可能にするこれらの技術の能力についての詳細な調査は不足しています。
この研究では、そのような研究を提供し、文レベルと文書レベルの両方で 6 つの主要な EAE データセットに対して両方の手法を使用したゼロショット転送を調査します。
さらに、ゼロショット抽出におけるLLMへの依存の高まりに挑戦し、適切なソースオントロジーでトレーニングされた非常に小さなモデルがGPT-3.5またはGPT-4よりも優れたゼロショットパフォーマンスを生み出すことができることを示しています。

要約(オリジナル)

Effective ontology transfer has been a major goal of recent work on event argument extraction (EAE). Two methods in particular — question answering (QA) and template infilling (TI) — have emerged as promising approaches to this problem. However, detailed explorations of these techniques’ ability to actually enable this transfer are lacking. In this work, we provide such a study, exploring zero-shot transfer using both techniques on six major EAE datasets at both the sentence and document levels. Further, we challenge the growing reliance on LLMs for zero-shot extraction, showing that vastly smaller models trained on an appropriate source ontology can yield zero-shot performance superior to that of GPT-3.5 or GPT-4.

arxiv情報

著者 William Gantt,Aaron Steven White
発行日 2024-04-12 16:23:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク