Unveiling and Mitigating Bias in Large Language Model Recommendations: A Path to Fairness

要約

コンテンツとユーザーの行動を深く分析し、包括的な提案を提供することに優れています。
ただし、歪んだトレーニング データからバイアスが引き継がれることが多く、主流のコンテンツが優先され、多様なオプションや非伝統的なオプションは過小評価されます。
この研究では、多様な人口統計および文化的グループにわたる音楽、歌、書籍の推奨に焦点を当て、バイアスと LLM ベースの推奨システムの間の相互作用を調査しています。
この論文では、複数のモデル (GPT、LLaMA、Gemini) にわたる LLM ベースの推奨システムのバイアスを分析し、そのバイアスが結果に深く広範に影響を与えることを明らかにしています。
アイデンティティと社会経済的地位などの状況的要因が交差することでバイアスがさらに増幅され、多様なグループにわたる公平な推奨が複雑になります。
私たちの調査結果は、これらのシステムにはバイアスが深く根付いているにもかかわらず、迅速なエンジニアリングのような単純な介入でさえバイアスを大幅に軽減できることを明らかにしています。
さらに、バイアスをより効果的に軽減するために、検索拡張生成戦略を提案します。
数値実験によりこれらの戦略が検証され、バイアスの蔓延する性質と提案された解決策の影響の両方が実証されました。

要約(オリジナル)

excel in delivering comprehensive suggestions by deeply analyzing content and user behavior. However, they often inherit biases from skewed training data, favoring mainstream content while underrepresenting diverse or non-traditional options. This study explores the interplay between bias and LLM-based recommendation systems, focusing on music, song, and book recommendations across diverse demographic and cultural groups. This paper analyzes bias in LLM-based recommendation systems across multiple models (GPT, LLaMA, and Gemini), revealing its deep and pervasive impact on outcomes. Intersecting identities and contextual factors, like socioeconomic status, further amplify biases, complicating fair recommendations across diverse groups. Our findings reveal that bias in these systems is deeply ingrained, yet even simple interventions like prompt engineering can significantly reduce it. We further propose a retrieval-augmented generation strategy to mitigate bias more effectively. Numerical experiments validate these strategies, demonstrating both the pervasive nature of bias and the impact of the proposed solutions.

arxiv情報

著者 Anindya Bijoy Das,Shahnewaz Karim Sakib
発行日 2024-12-02 07:00:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.ET, cs.IR, cs.LG パーマリンク