要約
言語技術と人工知能の最近の進歩と応用により、法律、医療、メンタルヘルスなどの複数の分野で大きな成功を収めています。
判決予測のような AI ベースの言語モデルは、最近、法務部門向けに提案されています。
ただし、これらのモデルは、トレーニング データからピックアップされたエンコードされた社会的バイアスとの争いです。
偏見と公平性は NLP 全体で研究されてきましたが、ほとんどの研究は主に西洋の文脈に位置付けられています。
この作業では、法的領域におけるインドの視点からの公平性の初期調査を提示します。
ヒンディー語の法律文書でトレーニングされたモデルの保釈予測タスクにおける、学習したアルゴリズムのバイアスの伝播を強調します。
人口統計学的パリティを使用して公平性のギャップを評価し、保釈予測タスク用にトレーニングされたデシジョン ツリー モデルが、ヒンズー教徒とイスラム教徒に関連付けられた入力フィーチャ間で全体的な公平性の格差が 0.237 であることを示します。
さらに、インドの状況に特に焦点を当てて、法律部門で AI を適用する際の公平性/偏見の手段に関するさらなる調査と研究の必要性を強調します。
要約(オリジナル)
Recent advances and applications of language technology and artificial intelligence have enabled much success across multiple domains like law, medical and mental health. AI-based Language Models, like Judgement Prediction, have recently been proposed for the legal sector. However, these models are strife with encoded social biases picked up from the training data. While bias and fairness have been studied across NLP, most studies primarily locate themselves within a Western context. In this work, we present an initial investigation of fairness from the Indian perspective in the legal domain. We highlight the propagation of learnt algorithmic biases in the bail prediction task for models trained on Hindi legal documents. We evaluate the fairness gap using demographic parity and show that a decision tree model trained for the bail prediction task has an overall fairness disparity of 0.237 between input features associated with Hindus and Muslims. Additionally, we highlight the need for further research and studies in the avenues of fairness/bias in applying AI in the legal sector with a specific focus on the Indian context.
arxiv情報
著者 | Sahil Girhepuje,Anmol Goel,Gokul S Krishnan,Shreya Goyal,Satyendra Pandey,Ponnurangam Kumaraguru,Balaraman Ravindran |
発行日 | 2023-03-14 17:40:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google