要約
この論文では、保険紛争のための韓国の法的判決予測 (LJP) データセットを紹介します。
保険紛争における LJP モデルの成功は、保険会社とその顧客に利益をもたらします。
紛争調停プロセスに進んだ場合に結果がどうなるかを予測できるため、双方の時間と費用を節約できます。
リソースの少ない言語ではよくあることですが、この特定のタスクに使用できるデータの量には制限があります。
この問題を軽減するために、データの制限にもかかわらず良好なパフォーマンスを達成する方法を調査します。
私たちの実験では、Sentence Transformer Fine-tuning (SetFit、Tunstall et al.、2022) が、トレーニング データが限られている場合の標準的な微調整の優れた代替手段であることを実証しました。
私たちのデータに対して SetFit アプローチで微調整されたモデルは、データ サイズがはるかに小さいにもかかわらず、韓国の LJP ベンチマーク モデル (Hwang et al., 2022) と同様のパフォーマンスを示しました。
要約(オリジナル)
This paper introduces a Korean legal judgment prediction (LJP) dataset for insurance disputes. Successful LJP models on insurance disputes can benefit insurance companies and their customers. It can save both sides’ time and money by allowing them to predict how the result would come out if they proceed to the dispute mediation process. As is often the case with low-resource languages, there is a limitation on the amount of data available for this specific task. To mitigate this issue, we investigate how one can achieve a good performance despite the limitation in data. In our experiment, we demonstrate that Sentence Transformer Fine-tuning (SetFit, Tunstall et al., 2022) is a good alternative to standard fine-tuning when training data are limited. The models fine-tuned with the SetFit approach on our data show similar performance to the Korean LJP benchmark models (Hwang et al., 2022) despite the much smaller data size.
arxiv情報
著者 | Alice Saebom Kwak,Cheonkam Jeong,Ji Weon Lim,Byeongcheol Min |
発行日 | 2024-01-26 05:26:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google