Few-Shot Domain Adaptation for Charge Prediction on Unprofessional Descriptions

要約

専門法言語スタイル (PLLS) テキストを考慮した最近の研究では、料金予測タスクに関して有望な結果が示されています。
ただし、専門的でないユーザーもこのような予測サービスに対する需要が高まっています。
PLLS テキストと、素人が表現した非 PLLS テキストとの間には明らかなドメインの不一致があり、これにより、非 PLLS テキストに対する現在の SOTA モデルのパフォーマンスが低下します。
主な課題は、ほとんどの料金クラスで非 PLLS データが不足していることです。
この論文では、Disentangled Legal Content for Charge Prediction (DLCCP) と呼ばれる新しい少数ショット ドメイン アダプテーション (FSDA) 手法を提案します。
潜在特徴に存在するテキスト スタイル情報の悪影響を考慮せずにインスタンス レベルの位置合わせのみを実行する既存の FSDA の作業と比較して、DLCCP (1) は、慎重に設計された最適化目標により、コンテンツとスタイルの表現を解きほぐし、ドメインに依存しない法的コンテンツの学習を改善します。
(2) 要素レベルとインスタンスレベルのコンテンツ表現を同時に抽出して位置合わせするために、構成要素の電荷の知識を利用します。
私たちは、素人向けの料金予測モデルを開発するために、NCCP という名前の初の公的に利用可能な非 PLLS データセットに貢献しています。
NCCP の実験では、競合ベースラインよりも当社の手法が優れていることが示されています。

要約(オリジナル)

Recent works considering professional legal-linguistic style (PLLS) texts have shown promising results on the charge prediction task. However, unprofessional users also show an increasing demand on such a prediction service. There is a clear domain discrepancy between PLLS texts and non-PLLS texts expressed by those laypersons, which degrades the current SOTA models’ performance on non-PLLS texts. A key challenge is the scarcity of non-PLLS data for most charge classes. This paper proposes a novel few-shot domain adaptation (FSDA) method named Disentangled Legal Content for Charge Prediction (DLCCP). Compared with existing FSDA works, which solely perform instance-level alignment without considering the negative impact of text style information existing in latent features, DLCCP (1) disentangles the content and style representations for better domain-invariant legal content learning with carefully designed optimization goals for content and style spaces and, (2) employs the constitutive elements knowledge of charges to extract and align element-level and instance-level content representations simultaneously. We contribute the first publicly available non-PLLS dataset named NCCP for developing layperson-friendly charge prediction models. Experiments on NCCP show the superiority of our methods over competitive baselines.

arxiv情報

著者 Jie Zhao,Ziyu Guan,Wei Zhao,Yue Jiang,Xiaofei He
発行日 2023-09-29 15:14:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク