Legal Syllogism Prompting: Teaching Large Language Models for Legal Judgment Prediction

要約

法的三段論法は、法律専門家が事件を分析するために一般的に使用する演繹的推論の形式です。
この論文では、法的判断を予測するための大規模言語モデル (LLM) を教えるための簡単なプロンプト方法である法的三段論法プロンプティング (LoT) を提案します。
LoTは、法的三段論法において、大前提は法律、小前提は事実、そして結論は判決であることだけを教えます。
その後、モデルは、学習、微調整、例を必要とせずに、事件の三段論法推論を生成し、判断を下すことができます。
中国の刑事事件データセットである CAIL2018 上で、GPT-3 モデルを使用したゼロショット判定予測実験を実行しました。
私たちの結果は、LoT を備えた LLM が、多様な推論タスクに対する最先端のプロンプト手法であるベースラインおよび思考連鎖プロンプトよりも優れたパフォーマンスを達成することを示しています。
LoT を使用すると、モデルは他の手法と比較して、判決に関連する重要な情報に集中し、行為の法的意味を正しく理解できます。
私たちの方法により、LLM は法律条文や正当化とともに判決を予測できるようになり、モデルの説明可能性が大幅に向上します。

要約(オリジナル)

Legal syllogism is a form of deductive reasoning commonly used by legal professionals to analyze cases. In this paper, we propose legal syllogism prompting (LoT), a simple prompting method to teach large language models (LLMs) for legal judgment prediction. LoT teaches only that in the legal syllogism the major premise is law, the minor premise is the fact, and the conclusion is judgment. Then the models can produce a syllogism reasoning of the case and give the judgment without any learning, fine-tuning, or examples. On CAIL2018, a Chinese criminal case dataset, we performed zero-shot judgment prediction experiments with GPT-3 models. Our results show that LLMs with LoT achieve better performance than the baseline and chain of thought prompting, the state-of-art prompting method on diverse reasoning tasks. LoT enables the model to concentrate on the key information relevant to the judgment and to correctly understand the legal meaning of acts, as compared to other methods. Our method enables LLMs to predict judgment along with law articles and justification, which significantly enhances the explainability of models.

arxiv情報

著者 Cong Jiang,Xiaolei Yang
発行日 2023-07-17 08:38:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク