Exploring the Potential of Large Language Models in Computational Argumentation

要約

計算論証は、法律、公共政策、人工知能などのさまざまな分野で不可欠なツールとなっています。
これは、自然言語処理における新たな研究分野であり、ますます注目を集めています。
計算論証の研究には、主に、引数マイニングと引数生成という 2 種類のタスクが含まれます。
大規模言語モデル (LLM) はコンテキストの理解と自然言語の生成において優れた機能を実証しているため、さまざまな計算論証タスクにおける LLM のパフォーマンスを評価することは価値があります。
この作業は、ChatGPT、Flan モデル、LLaMA2 モデルなどの LLM の評価を、ゼロショット設定とフューショット設定の両方で開始することを目的としています。
私たちは既存のタスクを 6 つの主要なカテゴリに整理し、14 のオープンに利用可能なデータセットの形式を標準化します。
さらに、議論マイニングと議論生成における LLM のエンドツーエンドのパフォーマンスを総合的に評価することを目的とした、反論発言生成に関する新しいベンチマーク データセットを紹介します。
広範な実験により、LLM がほとんどのデータセットにわたって賞賛に値するパフォーマンスを示し、議論の分野における LLM の能力が実証されたことが示されています。
私たちの分析は、将来の研究活動における計算論証と LLM との統合を評価するための貴重な提案を提供します。

要約(オリジナル)

Computational argumentation has become an essential tool in various domains, including law, public policy, and artificial intelligence. It is an emerging research field in natural language processing that attracts increasing attention. Research on computational argumentation mainly involves two types of tasks: argument mining and argument generation. As large language models (LLMs) have demonstrated impressive capabilities in understanding context and generating natural language, it is worthwhile to evaluate the performance of LLMs on diverse computational argumentation tasks. This work aims to embark on an assessment of LLMs, such as ChatGPT, Flan models, and LLaMA2 models, in both zero-shot and few-shot settings. We organize existing tasks into six main categories and standardize the format of fourteen openly available datasets. In addition, we present a new benchmark dataset on counter speech generation that aims to holistically evaluate the end-to-end performance of LLMs on argument mining and argument generation. Extensive experiments show that LLMs exhibit commendable performance across most of the datasets, demonstrating their capabilities in the field of argumentation. Our analysis offers valuable suggestions for evaluating computational argumentation and its integration with LLMs in future research endeavors.

arxiv情報

著者 Guizhen Chen,Liying Cheng,Luu Anh Tuan,Lidong Bing
発行日 2024-07-01 09:40:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク