要約
大規模言語モデル (LLM) の時代では、訴訟手続きの複雑さと専門家による注釈付きのデータセットの不足により、裁判結果の予測は大きな課題となっています。
これに対処するために、インドのコンテキストにおける法的判決の予測と説明のための専門家による注釈付き最大のデータセットであり、15,000 を超える注釈を備えた \textbf{Ex}planation (\texttt{PredEx}) を使用した \textbf{Pred}iction を導入します。
この画期的なコーパスは、LLM への命令チューニングの適用を含む革新により、法的分析における AI モデルのトレーニングと評価を大幅に強化します。
この方法により、法的判断におけるこれらのモデルの予測精度と説明の深さが大幅に向上しました。
私たちは、一般的な法的状況とインドの法的状況の両方に合わせて調整された、さまざまな変圧器ベースのモデルを採用しました。
厳密な語彙的、意味論的、専門家による評価を通じて、私たちのモデルは \texttt{PredEx} を効果的に活用して正確な予測と有意義な説明を提供し、法律専門家と NLP コミュニティの両方にとって貴重なベンチマークとして確立しています。
要約(オリジナル)
In the era of Large Language Models (LLMs), predicting judicial outcomes poses significant challenges due to the complexity of legal proceedings and the scarcity of expert-annotated datasets. Addressing this, we introduce \textbf{Pred}iction with \textbf{Ex}planation (\texttt{PredEx}), the largest expert-annotated dataset for legal judgment prediction and explanation in the Indian context, featuring over 15,000 annotations. This groundbreaking corpus significantly enhances the training and evaluation of AI models in legal analysis, with innovations including the application of instruction tuning to LLMs. This method has markedly improved the predictive accuracy and explanatory depth of these models for legal judgments. We employed various transformer-based models, tailored for both general and Indian legal contexts. Through rigorous lexical, semantic, and expert assessments, our models effectively leverage \texttt{PredEx} to provide precise predictions and meaningful explanations, establishing it as a valuable benchmark for both the legal profession and the NLP community.
arxiv情報
著者 | Shubham Kumar Nigam,Anurag Sharma,Danush Khanna,Noel Shallum,Kripabandhu Ghosh,Arnab Bhattacharya |
発行日 | 2024-06-06 14:57:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google