Multi-Task Attentive Residual Networks for Argument Mining

要約

我々は、複数の論点をマイニングするタスクのために、残差ネットワークとニューラル・アテンションの利用を探求する。我々は、文書や議論の構造に関する仮定を持たずに、注意、マルチタスク学習を利用し、アンサンブルを利用する残差アーキテクチャを提案する。我々は、ユーザー生成コメント、科学出版物、説得力のあるエッセイの5つの異なるコーパスを用いた広範な実験評価を提示する。その結果、我々のアプローチは、より高い計算フットプリントやコーパスに特化した設計を持つ最先端のアーキテクチャと強力に競合し、一般性、性能精度、モデルサイズの縮小の間の興味深い妥協点を表していることが示された。

要約(オリジナル)

We explore the use of residual networks and neural attention for multiple argument mining tasks. We propose a residual architecture that exploits attention, multi-task learning, and makes use of ensemble, without any assumption on document or argument structure. We present an extensive experimental evaluation on five different corpora of user-generated comments, scientific publications, and persuasive essays. Our results show that our approach is a strong competitor against state-of-the-art architectures with a higher computational footprint or corpus-specific design, representing an interesting compromise between generality, performance accuracy and reduced model size.

arxiv情報

著者 Andrea Galassi,Marco Lippi,Paolo Torroni
発行日 2023-05-15 16:53:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク