CURE4Rec: A Benchmark for Recommendation Unlearning with Deeper Influence

要約

人工知能におけるプライバシーへの懸念が高まる中、規制により忘れられる権利が義務付けられ、モデルからデータを取り出す権利が個人に認められています。
機械の非学習は、モデル、特に履歴データにユーザーの機密情報が含まれるレコメンダー システムで選択的忘却を可能にする潜在的なソリューションとして浮上しています。
推奨アンラーニングにおける最近の進歩にも関わらず、統一された評価フレームワークが存在しないことや、公平性などのより深い影響の側面が見落とされているため、アンラーニング手法を包括的に評価することは依然として困難です。
これらのギャップに対処するために、推奨非学習評価のための最初の包括的なベンチマークである CURE4Rec を提案します。
CURE4Rec は、コア データ、エッジ データ、ランダム データの 3 つのデータ選択戦略の下で、非学習完全性、推奨ユーティリティ、非学習効率、推奨公平性の 4 つの側面をカバーします。
具体的には、さまざまな影響レベルを持つデータに対する推奨の公平性と堅牢性に対するアンラーニングのより深い影響を考慮します。
CURE4Rec 評価を使用して複数のデータセットを構築し、既存のレコメンデーション非学習手法について広範な実験を行います。
私たちのコードは https://github.com/xiye7lai/CURE4Rec でリリースされています。

要約(オリジナル)

With increasing privacy concerns in artificial intelligence, regulations have mandated the right to be forgotten, granting individuals the right to withdraw their data from models. Machine unlearning has emerged as a potential solution to enable selective forgetting in models, particularly in recommender systems where historical data contains sensitive user information. Despite recent advances in recommendation unlearning, evaluating unlearning methods comprehensively remains challenging due to the absence of a unified evaluation framework and overlooked aspects of deeper influence, e.g., fairness. To address these gaps, we propose CURE4Rec, the first comprehensive benchmark for recommendation unlearning evaluation. CURE4Rec covers four aspects, i.e., unlearning Completeness, recommendation Utility, unleaRning efficiency, and recommendation fairnEss, under three data selection strategies, i.e., core data, edge data, and random data. Specifically, we consider the deeper influence of unlearning on recommendation fairness and robustness towards data with varying impact levels. We construct multiple datasets with CURE4Rec evaluation and conduct extensive experiments on existing recommendation unlearning methods. Our code is released at https://github.com/xiye7lai/CURE4Rec.

arxiv情報

著者 Chaochao Chen,Jiaming Zhang,Yizhao Zhang,Li Zhang,Lingjuan Lyu,Yuyuan Li,Biao Gong,Chenggang Yan
発行日 2024-08-26 16:21:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.IR, cs.LG パーマリンク