CASA: Causality-driven Argument Sufficiency Assessment

要約

議論の十分性評価タスクは、特定の議論の前提がその結論を裏付けるかどうかを判断することを目的としています。
このタスクに取り組むために、既存の研究では、人間によって注釈が付けられたデータに基づいて分類器をトレーニングすることがよくあります。
ただし、データに注釈を付けるのは手間がかかり、主観的な基準により注釈に一貫性がないことがよくあります。
因果関係文献における十分性確率 (PS) の定義を動機として、我々は、ゼロショット因果関係主導の議論十分性評価フレームワークである CASA を提案します。
PS は、前提イベントと結論イベントの両方が存在しない場合に、前提イベントの導入が結論につながる可能性を測定します。
この確率を推定するために、大規模言語モデル (LLM) を使用して前提および結論と矛盾するコンテキストを生成し、前提イベントを挿入することでコンテキストを修正することを提案します。
2 つの論理誤り検出データセットの実験により、CASA が不十分な引数を正確に識別することが実証されました。
さらに、CASA を作文支援アプリケーションに導入したところ、CASA によって生成された提案により、生徒が作成した議論の十分性が向上することがわかりました。
コードとデータは https://github.com/xxxiaol/CASA で入手できます。

要約(オリジナル)

The argument sufficiency assessment task aims to determine if the premises of a given argument support its conclusion. To tackle this task, existing works often train a classifier on data annotated by humans. However, annotating data is laborious, and annotations are often inconsistent due to subjective criteria. Motivated by the probability of sufficiency (PS) definition in the causal literature, we propose CASA, a zero-shot causality-driven argument sufficiency assessment framework. PS measures how likely introducing the premise event would lead to the conclusion, when both the premise and conclusion events are absent. To estimate this probability, we propose to use large language models (LLMs) to generate contexts that are inconsistent with the premise and conclusion, and revise them by injecting the premise event. Experiments on two logical fallacy detection datasets demonstrate that CASA accurately identifies insufficient arguments. We further deploy CASA in a writing assistance application, and find that suggestions generated by CASA enhance the sufficiency of student-written arguments. Code and data are available at https://github.com/xxxiaol/CASA.

arxiv情報

著者 Xiao Liu,Yansong Feng,Kai-Wei Chang
発行日 2024-01-10 16:21:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク