Precedent-Enhanced Legal Judgment Prediction with LLM and Domain-Model Collaboration

要約

法的判決予測 (LJP) は、法的 AI においてますます重要なタスクになっています。つまり、事件の事実記述の観点から事件の判決を予測することです。
先例とは、同様の事実を伴う以前の訴訟であり、国の法制度におけるその後の訴訟の判断の基礎となります。
したがって、LJP における前例の活用を検討することは価値があります。
深層学習の最近の進歩により、LJP タスクを解決するためにさまざまな技術を使用できるようになりました。
これらは、大規模言語モデル (LLM) とドメイン固有モデルの 2 つのカテゴリに分類できます。
LLM は複雑な自然言語を解釈して生成することができ、ドメイン モデルはタスク固有の情報を効率的に学習できます。
このホワイトペーパーでは、前例強化 LJP フレームワーク (PLJP) を提案します。これは、前例のコンテキストで LLM モデルとドメイン モデルの両方の強みを活用するシステムです。
具体的には、ドメイン モデルは候補ラベルを提供し、適切な前例を効率的に見つけるように設計されており、大規模モデルはコンテキスト内の前例を理解して最終的な予測を行います。
現実世界のデータセットでの実験により、PLJP の有効性が実証されました。
さらに、私たちの研究は、他の垂直ドメインに一般化できる、LLM とドメインモデルのコラボレーションの有望な方向性を示しています。

要約(オリジナル)

Legal Judgment Prediction (LJP) has become an increasingly crucial task in Legal AI, i.e., predicting the judgment of the case in terms of case fact description. Precedents are the previous legal cases with similar facts, which are the basis for the judgment of the subsequent case in national legal systems. Thus, it is worthwhile to explore the utilization of precedents in the LJP. Recent advances in deep learning have enabled a variety of techniques to be used to solve the LJP task. These can be broken down into two categories: large language models (LLMs) and domain-specific models. LLMs are capable of interpreting and generating complex natural language, while domain models are efficient in learning task-specific information. In this paper, we propose the precedent-enhanced LJP framework (PLJP), a system that leverages the strength of both LLM and domain models in the context of precedents. Specifically, the domain models are designed to provide candidate labels and find the proper precedents efficiently, and the large models will make the final prediction with an in-context precedents comprehension. Experiments on the real-world dataset demonstrate the effectiveness of our PLJP. Moreover, our work shows a promising direction for LLM and domain-model collaboration that can be generalized to other vertical domains.

arxiv情報

著者 Yiquan Wu,Siying Zhou,Yifei Liu,Weiming Lu,Xiaozhong Liu,Yating Zhang,Changlong Sun,Fei Wu,Kun Kuang
発行日 2023-10-13 16:47:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク