AgentsCourt: Building Judicial Decision-Making Agents with Court Debate Simulation and Legal Knowledge Augmentation

要約

ディープラーニングの発展により、自然言語処理テクノロジーは、従来の司法業界のさまざまな側面の効率を効果的に改善しました。
しかし、現在の取り組みのほとんどは、個々の司法段階内のタスクに焦点を当てており、複数の段階にまたがる複雑なタスクを処理することが困難になっています。
大規模な言語モデルを活用した自律エージェントはますます賢くなり、現実世界の環境で複雑な意思決定を行うことができるようになり、司法情報に新たな洞察を提供します。
本稿では、(1)司法意思決定のための新しいマルチエージェントフレームワークAgentsCourtを提案する。
私たちのフレームワークは、裁判官の意思決定をシミュレートするための法廷討論シミュレーション、法的リソースの検索、意思決定の改良から構成される古典的な法廷裁判プロセスに従います。
(2) SimuCourt は、最も一般的な 3 種類の司法事件にわたる 420 件の中国の判決文書を網羅する司法ベンチマークです。
さらに、このタスクをサポートするために、マルチリソースの法律知識を備えた大規模な法律知識ベース Legal-KB を構築します。
(3) 広範な実験により、私たちのフレームワークは、特に法的記事の生成において、さまざまな側面で既存の高度な手法より優れていることが示されており、私たちのモデルは、一審設定と二審設定でそれぞれ 8.6% と 9.1% の F1 スコアの大幅な改善を達成しました。

要約(オリジナル)

With the development of deep learning, natural language processing technology has effectively improved the efficiency of various aspects of the traditional judicial industry. However, most current efforts focus on tasks within individual judicial stages, making it difficult to handle complex tasks that span multiple stages. As the autonomous agents powered by large language models are becoming increasingly smart and able to make complex decisions in real-world settings, offering new insights for judicial intelligence. In this paper, (1) we propose a novel multi-agent framework, AgentsCourt, for judicial decision-making. Our framework follows the classic court trial process, consisting of court debate simulation, legal resources retrieval and decision-making refinement to simulate the decision-making of judge. (2) we introduce SimuCourt, a judicial benchmark that encompasses 420 Chinese judgment documents, spanning the three most common types of judicial cases. Furthermore, to support this task, we construct a large-scale legal knowledge base, Legal-KB, with multi-resource legal knowledge. (3) Extensive experiments show that our framework outperforms the existing advanced methods in various aspects, especially in generating legal articles, where our model achieves significant improvements of 8.6% and 9.1% F1 score in the first and second instance settings, respectively.

arxiv情報

著者 Zhitao He,Pengfei Cao,Chenhao Wang,Zhuoran Jin,Yubo Chen,Jiexin Xu,Huaijun Li,Xiaojian Jiang,Kang Liu,Jun Zhao
発行日 2024-08-30 05:54:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク