要約
議論マイニングには、主張の検出、証拠の抽出、立場の分類など、議論要素を自動的に識別する複数のサブタスクが含まれます。ただし、各サブタスクだけでは、議論の構造と推論プロセスを完全に理解するには不十分です。
議論エッセイの全体像を学び、議論の構成要素間の相互依存性を把握するには、人々がどのような意見を持っているか (つまり、主張)、それらの意見がなぜ有効であるか (つまり、裏付けとなる証拠)、証拠の出典を知る必要があります (
つまり、証拠の種類)、およびそれらの主張が議論の主題(つまり、立場)にどのように反応するか。
この研究では、主張、証拠、証拠の種類、立場といった 4 つの議論要素をオールインワンで抽出できる、挑戦的な議論 4 要素抽出タスク (AQE) を初めて提案します。
このタスクをサポートするために、大規模で困難なデータセットを構築します。
しかし、引数の四重項抽出を解決できる既存の手法は存在しない。
このギャップを埋めるために、私たちは新しいクアッドタグ付け拡張生成アプローチを提案します。これは、クアドラプレットタグ付けモジュールを利用して生成フレームワークのトレーニングを強化します。
私たちのデータセットの実験結果は、私たちが提案したアプローチがいくつかの強力なベースラインよりも経験的に優れていることを示しています。
要約(オリジナル)
Argument mining involves multiple sub-tasks that automatically identify argumentative elements, such as claim detection, evidence extraction, stance classification, etc. However, each subtask alone is insufficient for a thorough understanding of the argumentative structure and reasoning process. To learn a complete view of an argument essay and capture the interdependence among argumentative components, we need to know what opinions people hold (i.e., claims), why those opinions are valid (i.e., supporting evidence), which source the evidence comes from (i.e., evidence type), and how those claims react to the debating topic (i.e., stance). In this work, we for the first time propose a challenging argument quadruplet extraction task (AQE), which can provide an all-in-one extraction of four argumentative components, i.e., claims, evidence, evidence types, and stances. To support this task, we construct a large-scale and challenging dataset. However, there is no existing method that can solve the argument quadruplet extraction. To fill this gap, we propose a novel quad-tagging augmented generative approach, which leverages a quadruplet tagging module to augment the training of the generative framework. The experimental results on our dataset demonstrate the empirical superiority of our proposed approach over several strong baselines.
arxiv情報
著者 | Jia Guo,Liying Cheng,Wenxuan Zhang,Stanley Kok,Xin Li,Lidong Bing |
発行日 | 2023-05-31 14:35:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google