Understand Legal Documents with Contextualized Large Language Models

要約

インドなどの人口の多い国では、係争中の訴訟の増加が大きな問題になっています。
法的文書を処理して理解するための効果的な技術を開発することは、この問題の解決に非常に役立ちます。
この論文では、SemEval-2023 タスク 6: 法的テキストの理解 (Modi et al., 2023) のシステムを紹介します。
具体的には、最初に文内レベルと文間レベルの両方で包括的なコンテキスト情報を考慮して修辞上の役割を予測する Legal-BERT-HSLN モデルを開発し (サブタスク A)、次に法的な文脈化された Legal-LUKE モデルをトレーニングします。
エンティティ認識、法人を認識する (サブタスク B)。
私たちの評価では、設計されたモデルがベースラインよりも正確であることが示されています。たとえば、サブタスク B の F1 スコアが最大 15.0% 向上しています。タスク リーダーボードで注目すべきパフォーマンス (0.834 マイクロ F1 スコアなど) を達成し、5 位にランク付けされました。
サブタスク A の 27 チームのうち

要約(オリジナル)

The growth of pending legal cases in populous countries, such as India, has become a major issue. Developing effective techniques to process and understand legal documents is extremely useful in resolving this problem. In this paper, we present our systems for SemEval-2023 Task 6: understanding legal texts (Modi et al., 2023). Specifically, we first develop the Legal-BERT-HSLN model that considers the comprehensive context information in both intra- and inter-sentence levels to predict rhetorical roles (subtask A) and then train a Legal-LUKE model, which is legal-contextualized and entity-aware, to recognize legal entities (subtask B). Our evaluations demonstrate that our designed models are more accurate than baselines, e.g., with an up to 15.0% better F1 score in subtask B. We achieved notable performance in the task leaderboard, e.g., 0.834 micro F1 score, and ranked No.5 out of 27 teams in subtask A.

arxiv情報

著者 Xin Jin,Yuchen Wang
発行日 2023-03-21 18:48:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク