要約
暗黙的な談話関係の認識には、明示的な談話接続詞によってリンクされていないテキストのスパン間に保持される関係を判断することが含まれます。
近年、事前トレーニング、プロンプト、予測パラダイムが、このタスクに取り組むための有望なアプローチとして浮上しています。
しかし、これまでの研究は、暗黙的な談話関係の認識を手動の言語化ツールのみに依存しており、曖昧さや不正確さの問題さえ抱えていました。
これらの制限を克服するために、特定のクラスレベルの意味論的特徴と、言語化ツールとしてさまざまなクラスの階層ラベル構造をキャプチャするプロトタイプを活用します。
私たちの方法が競争力のあるベースラインで改善されることを示します。
さらに、私たちが提案したアプローチは、ゼロショットの言語間学習を可能にするように拡張でき、リソースが乏しい言語での談話関係の認識を容易にすることができます。
これらの進歩は、異なる言語間での暗黙的な談話関係認識の問題に対処する際の私たちのアプローチの実用性と多用途性を検証します。
要約(オリジナル)
Implicit discourse relation recognition involves determining relationships that hold between spans of text that are not linked by an explicit discourse connective. In recent years, the pre-train, prompt, and predict paradigm has emerged as a promising approach for tackling this task. However, previous work solely relied on manual verbalizers for implicit discourse relation recognition, which suffer from issues of ambiguity and even incorrectness. To overcome these limitations, we leverage the prototypes that capture certain class-level semantic features and the hierarchical label structure for different classes as the verbalizer. We show that our method improves on competitive baselines. Besides, our proposed approach can be extended to enable zero-shot cross-lingual learning, facilitating the recognition of discourse relations in languages with scarce resources. These advancement validate the practicality and versatility of our approach in addressing the issues of implicit discourse relation recognition across different languages.
arxiv情報
著者 | Wanqiu Long,Bonnie Webber |
発行日 | 2024-11-22 12:01:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google