TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems

要約

時間的関係抽出 (TRE) は、イベントやアクションの展開を把握し、関連するタスクのワークフローを形成することを目的としているため、クラウドソーシング システムで依頼者によって開始されたタスク リクエストを理解するのに役立つと期待されています。
しかし、既存の方法は依然として、限られた不均一に分散した注釈付きデータに苦戦しています。
したがって、事前トレーニング済み言語モデル (PLM) 内に保存されている豊富なグローバル知識に触発されて、これらの問題に取り組むためのプロンプト チューニングと対照学習を組み込んだ、TRE 用のマルチタスク プロンプト学習フレームワーク (TemPrompt) を提案します。
PLM にとってより効果的なプロンプトを引き出すために、プロンプトの自動生成のために TRE の無数の要素を徹底的に考慮したタスク指向のプロンプト構築アプローチを導入します。
さらに、イベントと時間的手がかりへのモデルの焦点を強化するための補助タスクとして、マスクされた言語モデリングの形式で時間的イベント推論を設計します。
実験結果は、TemPrompt が標準設定と少数ショット設定の両方で、大部分のメトリクスにわたって比較されたすべてのベースラインを上回るパフォーマンスを示していることを示しています。
クラウドソーシング シナリオでの有効性を検証するために、プリント基板の設計と製造に関するケース スタディが提供されます。

要約(オリジナル)

Temporal relation extraction (TRE) aims to grasp the evolution of events or actions, and thus shape the workflow of associated tasks, so it holds promise in helping understand task requests initiated by requesters in crowdsourcing systems. However, existing methods still struggle with limited and unevenly distributed annotated data. Therefore, inspired by the abundant global knowledge stored within pre-trained language models (PLMs), we propose a multi-task prompt learning framework for TRE (TemPrompt), incorporating prompt tuning and contrastive learning to tackle these issues. To elicit more effective prompts for PLMs, we introduce a task-oriented prompt construction approach that thoroughly takes the myriad factors of TRE into consideration for automatic prompt generation. In addition, we design temporal event reasoning in the form of masked language modeling as auxiliary tasks to bolster the model’s focus on events and temporal cues. The experimental results demonstrate that TemPrompt outperforms all compared baselines across the majority of metrics under both standard and few-shot settings. A case study on designing and manufacturing printed circuit boards is provided to validate its effectiveness in crowdsourcing scenarios.

arxiv情報

著者 Jing Yang,Yu Zhao,Linyao Yang,Xiao Wang,Long Chen,Fei-Yue Wang
発行日 2024-07-09 08:38:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク