UP5: Unbiased Foundation Model for Fairness-aware Recommendation

要約

大規模言語モデル (LLM) などの基盤モデルの最近の進歩により、基盤モデルはレコメンダー システム (RS) の最前線に押し上げられています。
その有用性にもかかわらず、LLM が不用意に社会の固定観念を永続させ、不公平な推奨をもたらすのではないかという懸念が高まっています。
多くのユーザーが意思決定や要求を満たすために公平性を考慮しているため、RS にとって公平性は非常に重要であるため、この文書では、性別などの特定の機密機能について公平であるためにユーザーがレコメンダー システムに要求する可能性がある、LLM ベースのレコメンデーションのユーザー側の公平性に焦点を当てています。
または年齢。
この論文では、T5 と LLaMA の両方のバックボーンに基づく LLM ベースの推奨モデルによって示される不公平の程度を詳しく調べ、LLM ベースの推奨モデルにおけるユーザーの公平な扱いを促進するための適切な方法について議論します。
公平性を意識した LLM ベースの推奨のため、Unbiased Foundation mOdels (UFO) に対する新しい Counterfactually-Fair-Prompt (CFP) 手法を導入します。
実験は、MovieLens-1M と Insurance という 2 つの現実世界のデータセットで実施され、マッチングベースとシーケンシャルベースの両方の公平性を意識した推奨モデルと比較されました。
結果は、CFP が高いレベルの公平性でより優れた推奨パフォーマンスを実現することを示しています。
データとコードは https://github.com/agiresearch/UP5 でオープンソース化されています。

要約(オリジナル)

Recent advances in Foundation Models such as Large Language Models (LLMs) have propelled them to the forefront of Recommender Systems (RS). Despite their utility, there is a growing concern that LLMs might inadvertently perpetuate societal stereotypes, resulting in unfair recommendations. Since fairness is critical for RS as many users take it for decision-making and demand fulfillment, this paper focuses on user-side fairness for LLM-based recommendation where the users may require a recommender system to be fair on specific sensitive features such as gender or age. In this paper, we dive into the extent of unfairness exhibited by LLM-based recommender models based on both T5 and LLaMA backbones, and discuss appropriate methods for promoting equitable treatment of users in LLM-based recommendation models. We introduce a novel Counterfactually-Fair-Prompt (CFP) method towards Unbiased Foundation mOdels (UFO) for fairness-aware LLM-based recommendation. Experiments are conducted on two real-world datasets, MovieLens-1M and Insurance, and compared with both matching-based and sequential-based fairness-aware recommendation models. Results show that CFP achieves better recommendation performance with a high level of fairness. Data and code are open-sourced at https://github.com/agiresearch/UP5.

arxiv情報

著者 Wenyue Hua,Yingqiang Ge,Shuyuan Xu,Jianchao Ji,Yongfeng Zhang
発行日 2024-05-29 16:46:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR, cs.LG パーマリンク