要約
インドのような人口の多い国では、係争中の法律案件の増加が大きな問題となっている。法的文書を処理し理解するための効果的な技術を開発することは、この問題を解決する上で非常に有用である。本論文では、SemEval-2023タスク6:法律文書の理解(Modi et al.)具体的には、まず、レトリック的役割を予測するために、文内および文間レベルの包括的なコンテキスト情報を考慮するLegal-BERT-HSLNモデルを開発し(サブタスクA)、次に、法的エンティティを認識するために、法的コンテキストを考慮しエンティティを認識するLegal-LUKEモデルを訓練する(サブタスクB)。我々の評価は、我々の設計したモデルが、サブタスクBにおいて最大15.0%のF1スコア向上など、ベースラインよりも高精度であることを実証している。我々は、サブタスクAにおいて、0.834マイクロF1スコア、27チーム中5位など、タスクリーダーボードで注目すべきパフォーマンスを達成した。
要約(オリジナル)
The growth of pending legal cases in populous countries, such as India, has become a major issue. Developing effective techniques to process and understand legal documents is extremely useful in resolving this problem. In this paper, we present our systems for SemEval-2023 Task 6: understanding legal texts (Modi et al., 2023). Specifically, we first develop the Legal-BERT-HSLN model that considers the comprehensive context information in both intra- and inter-sentence levels to predict rhetorical roles (subtask A) and then train a Legal-LUKE model, which is legal-contextualized and entity-aware, to recognize legal entities (subtask B). Our evaluations demonstrate that our designed models are more accurate than baselines, e.g., with an up to 15.0% better F1 score in subtask B. We achieved notable performance in the task leaderboard, e.g., 0.834 micro F1 score, and ranked No.5 out of 27 teams in subtask A.
arxiv情報
著者 | Xin Jin,Yuchen Wang |
発行日 | 2023-07-02 22:51:52+00:00 |
arxivサイト | arxiv_id(pdf) |