要約
インドのような人口の多い国では、係争中の法律案件の増加が大きな問題となっている。法的文書を処理し理解するための効果的な技術を開発することは、この問題を解決する上で非常に有用である。本論文では、SemEval-2023タスク6:法律文書の理解(Modi et al.)具体的には、まず、レトリック的役割を予測するために、文内および文間レベルの包括的なコンテキスト情報を考慮するLegal-BERT-HSLNモデルを開発し(サブタスクA)、次に、法的エンティティを認識するために、法的コンテキストを考慮しエンティティを認識するLegal-LUKEモデルを訓練する(サブタスクB)。我々の評価は、我々の設計したモデルが、サブタスクBにおいて最大15.0%のF1スコア向上など、ベースラインよりも高精度であることを実証している。我々は、サブタスクAにおいて、0.834マイクロF1スコア、27チーム中5位など、タスクリーダーボードで注目すべきパフォーマンスを達成した。
要約(オリジナル)
The growth of pending legal cases in populous countries, such as India, has become a major issue. Developing effective techniques to process and understand legal documents is extremely useful in resolving this problem. In this paper, we present our systems for SemEval-2023 Task 6: understanding legal texts (Modi et al., 2023). Specifically, we first develop the Legal-BERT-HSLN model that considers the comprehensive context information in both intra- and inter-sentence levels to predict rhetorical roles (subtask A) and then train a Legal-LUKE model, which is legal-contextualized and entity-aware, to recognize legal entities (subtask B). Our evaluations demonstrate that our designed models are more accurate than baselines, e.g., with an up to 15.0% better F1 score in subtask B. We achieved notable performance in the task leaderboard, e.g., 0.834 micro F1 score, and ranked No.5 out of 27 teams in subtask A.
arxiv情報
| 著者 | Xin Jin,Yuchen Wang |
| 発行日 | 2023-07-02 22:51:52+00:00 |
| arxivサイト | arxiv_id(pdf) |