Low-Resource Court Judgment Summarization for Common Law Systems

要約

コモンロー裁判所は、現在の決定を知らせるために同様の判例の判決を参照する必要がある。
裁判所の判決文書の高品質な要約を作成すると、法律実務家が過去の訴訟を効率的に検討しやすくなり、一般の人々が裁判所の運営方法や法律の適用方法にアクセスできるようになります。
過去の裁判所判決の要約研究は、民法または特定の管轄区域の判決に焦点を当てています。
ただし、裁判官はすべてのコモンロー管轄地域の判決を参照することができます。
現在の要約データセットは、特に多くの管轄区域でラベル付きデータが不足している場合、複数の管轄区域にわたる判例を要約する需要を満たすには不十分です。
データセットの不足に対処するために、複数の管轄区域にわたるコモンロー裁判所の判決文書を要約するための最初のデータセットである CLSum を紹介します。
さらに、これは、データ拡張、要約生成、および評価において大規模言語モデル (LLM) を採用した最初の判決要約作業です。
具体的には、法律知識を組み込んだLLMベースのデータ拡張手法を設計します。
また、生成された判決要約の品質を評価するために、LLM に基づいて法律知識を強化した評価指標を提案します。
私たちの実験結果は、LLM ベースの要約手法が少数ショット設定およびゼロショット設定で良好に機能できることを検証しています。
LLM ベースのデータ拡張手法により、データ リソースが少ない場合の影響を軽減できます。
さらに、要約パフォーマンスを向上させるために不可欠なモデルコンポーネントと設定を見つけるために、包括的な比較実験を実行します。

要約(オリジナル)

Common law courts need to refer to similar precedents’ judgments to inform their current decisions. Generating high-quality summaries of court judgment documents can facilitate legal practitioners to efficiently review previous cases and assist the general public in accessing how the courts operate and how the law is applied. Previous court judgment summarization research focuses on civil law or a particular jurisdiction’s judgments. However, judges can refer to the judgments from all common law jurisdictions. Current summarization datasets are insufficient to satisfy the demands of summarizing precedents across multiple jurisdictions, especially when labeled data are scarce for many jurisdictions. To address the lack of datasets, we present CLSum, the first dataset for summarizing multi-jurisdictional common law court judgment documents. Besides, this is the first court judgment summarization work adopting large language models (LLMs) in data augmentation, summary generation, and evaluation. Specifically, we design an LLM-based data augmentation method incorporating legal knowledge. We also propose a legal knowledge enhanced evaluation metric based on LLM to assess the quality of generated judgment summaries. Our experimental results verify that the LLM-based summarization methods can perform well in the few-shot and zero-shot settings. Our LLM-based data augmentation method can mitigate the impact of low data resources. Furthermore, we carry out comprehensive comparative experiments to find essential model components and settings that are capable of enhancing summarization performance.

arxiv情報

著者 Shuaiqi Liu,Jiannong Cao,Yicong Li,Ruosong Yang,Zhiyuan Wen
発行日 2024-03-07 12:47:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, I.2.7 パーマリンク