Are Models Trained on Indian Legal Data Fair?

要約

言語技術と人工知能の最近の進歩と応用により、法律、医療、メンタルヘルスなどの複数の領域で大きな成功が収められています。
判決予測のような AI ベースの言語モデルが、最近、法律分野向けに提案されています。
ただし、これらのモデルは、トレーニング データから抽出されたエンコードされた社会的バイアスと競合しています。
バイアスと公平性は NLP 全体で研究されてきましたが、ほとんどの研究は主に西洋の文脈の中に位置づけられています。
この研究では、インドの観点から法的領域における公平性に関する初期調査を紹介します。
ヒンディー語の法的文書でトレーニングされたモデルの保釈予測タスクにおける、学習されたアルゴリズムのバイアスの伝播に焦点を当てます。
人口統計的パリティを使用して公平性ギャップを評価し、保釈予測タスク用にトレーニングされたデシジョン ツリー モデルでは、ヒンズー教徒とイスラム教徒に関連する入力特徴間で全体的な公平性格差が 0.237 であることを示します。
さらに、インドの状況に特に焦点を当てて、法律分野で AI を適用する際の公平性とバイアスに関してさらなる調査と研究の必要性を強調します。

要約(オリジナル)

Recent advances and applications of language technology and artificial intelligence have enabled much success across multiple domains like law, medical and mental health. AI-based Language Models, like Judgement Prediction, have recently been proposed for the legal sector. However, these models are strife with encoded social biases picked up from the training data. While bias and fairness have been studied across NLP, most studies primarily locate themselves within a Western context. In this work, we present an initial investigation of fairness from the Indian perspective in the legal domain. We highlight the propagation of learnt algorithmic biases in the bail prediction task for models trained on Hindi legal documents. We evaluate the fairness gap using demographic parity and show that a decision tree model trained for the bail prediction task has an overall fairness disparity of 0.237 between input features associated with Hindus and Muslims. Additionally, we highlight the need for further research and studies in the avenues of fairness/bias in applying AI in the legal sector with a specific focus on the Indian context.

arxiv情報

著者 Sahil Girhepuje,Anmol Goel,Gokul S Krishnan,Shreya Goyal,Satyendra Pandey,Ponnurangam Kumaraguru,Balaraman Ravindran
発行日 2024-05-14 08:44:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY パーマリンク