From Efficiency to Equity: Measuring Fairness in Preference Learning

要約

AI システム、特に生成モデルが意思決定にますます影響を与えるようになるにつれ、AI システムが人間の多様な好みを公正に表現できることが重要になります。
この論文では、不平等とロールズ正義の経済理論に触発された選好学習モデルにおける認識論的公平性を評価するための新しいフレームワークを紹介します。
これらのモデルの公平性を定量化するために、ジニ係数、アトキンソン指数、クズネッツ比から適応された指標を提案します。
カスタムの視覚設定データセット (AI-EDI-Space) と Jester Jokes データセットの 2 つのデータセットを使用してアプローチを検証します。
私たちの分析により、ユーザー間でのモデルのパフォーマンスのばらつきが明らかになり、潜在的な認識論的不公平が浮き彫りになります。
私たちは、これらの不平等を軽減するための前処理および処理中の手法を調査し、モデルの効率と公平性の間の複雑な関係を実証します。
この研究は、嗜好学習モデルにおける認識論的公平性を評価および改善するためのフレームワークを提供することで AI 倫理に貢献し、人間の多様な嗜好が重要な状況においてより包括的な AI システムを開発するための洞察を提供します。

要約(オリジナル)

As AI systems, particularly generative models, increasingly influence decision-making, ensuring that they are able to fairly represent diverse human preferences becomes crucial. This paper introduces a novel framework for evaluating epistemic fairness in preference learning models inspired by economic theories of inequality and Rawlsian justice. We propose metrics adapted from the Gini Coefficient, Atkinson Index, and Kuznets Ratio to quantify fairness in these models. We validate our approach using two datasets: a custom visual preference dataset (AI-EDI-Space) and the Jester Jokes dataset. Our analysis reveals variations in model performance across users, highlighting potential epistemic injustices. We explore pre-processing and in-processing techniques to mitigate these inequalities, demonstrating a complex relationship between model efficiency and fairness. This work contributes to AI ethics by providing a framework for evaluating and improving epistemic fairness in preference learning models, offering insights for developing more inclusive AI systems in contexts where diverse human preferences are crucial.

arxiv情報

著者 Shreeyash Gowaikar,Hugo Berard,Rashid Mushkani,Shin Koseki
発行日 2024-10-24 15:25:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク