要約
近年、監視されていないドメイン適応(UDA)は、多様なドメイン全体でモデルの一般化を強化する能力により、自然言語処理の分野(NLP)で大きな注目を集めています。
ただし、明確な法的ドメイン間の知識移転の適用アプリケーションは、ほとんど未踏のままです。
長く複雑な法的テキストによってもたらされる課題と大規模な注釈付きデータセットの限られた利用可能性に対処するために、法的判断予測(LJP)タスクの精度を改善するために設計された新しいモデルであるJurisCTCを提案します。
既存のアプローチとは異なり、jurisCTCはさまざまな法的ドメイン間の効果的な知識移転を促進し、サンプルを異なるドメインと区別するために対照的な学習を採用しています。
具体的には、LJPタスクでは、民法ドメインと刑法ドメイン間の知識移転を可能にします。
他のモデルや特定の大規模な言語モデル(LLMS)と比較して、jurisCTCは顕著な進歩を示し、それぞれ76.59%と78.83%のピーク精度を達成します。
要約(オリジナル)
In recent years, Unsupervised Domain Adaptation (UDA) has gained significant attention in the field of Natural Language Processing (NLP) owing to its ability to enhance model generalization across diverse domains. However, its application for knowledge transfer between distinct legal domains remains largely unexplored. To address the challenges posed by lengthy and complex legal texts and the limited availability of large-scale annotated datasets, we propose JurisCTC, a novel model designed to improve the accuracy of Legal Judgment Prediction (LJP) tasks. Unlike existing approaches, JurisCTC facilitates effective knowledge transfer across various legal domains and employs contrastive learning to distinguish samples from different domains. Specifically, for the LJP task, we enable knowledge transfer between civil and criminal law domains. Compared to other models and specific large language models (LLMs), JurisCTC demonstrates notable advancements, achieving peak accuracies of 76.59% and 78.83%, respectively.
arxiv情報
著者 | Zhaolu Kang,Hongtian Cai,Xiangyang Ji,Jinzhe Li,Nanfei Gu |
発行日 | 2025-04-24 05:48:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google