要約
機械学習における公平性の新たな定義では、モデルがユーザーの人口統計情報を意識しないことが求められます。たとえば、ユーザーの性別や年齢がモデルに影響を与えてはなりません。
パーソナライズされたレコメンダー システムは、明示的なユーザー フォーカスとユーザー モデリングを通じて、特にこの定義に違反する傾向があります。
明示的なユーザー モデリングは、多くのレコメンダー システムがこれまで見たことのないユーザーにレコメンデーションを提供できないようにする側面でもあります。
人口統計情報のエンコードを制限することにより、変分オートエンコーダベースのレコメンダー システムにおける差別を軽減するための新しいアプローチを提案します。
このアプローチは、トレーニング データに表されていないユーザーに公正な推奨事項を提供することができ、評価されます。
要約(オリジナル)
An emerging definition of fairness in machine learning requires that models are oblivious to demographic user information, e.g., a user’s gender or age should not influence the model. Personalized recommender systems are particularly prone to violating this definition through their explicit user focus and user modelling. Explicit user modelling is also an aspect that makes many recommender systems incapable of providing hitherto unseen users with recommendations. We propose novel approaches for mitigating discrimination in Variational Autoencoder-based recommender systems by limiting the encoding of demographic information. The approaches are capable of, and evaluated on, providing users that are not represented in the training data with fair recommendations.
arxiv情報
著者 | Bjørnar Vassøy,Helge Langseth,Benjamin Kille |
発行日 | 2023-08-29 11:37:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google