Exploring Fairness in Educational Data Mining in the Context of the Right to be Forgotten

要約

教育データ マイニング (EDM) コミュニティでは、機械学習は教育上の課題に取り組むためのパターンと構造を発見するという点で目覚ましい成功を収めています。
特に、EDM の学習分析では、公平性とアルゴリズムのバイアスが注目を集めています。
忘れられる権利への要求が高まる中、特に EDM の領域において、機密データとその影響を忘れるための機械学習モデルの必要性が高まっています。
機械の非学習としても知られる選択的忘却のパラダイムは、完全な再トレーニングを行わずに事前トレーニングされたモデルから特定のデータの影響を排除することで、このニーズに対処するために広く研究されてきました。
しかし、既存の研究では、対話型のデータ削除操作は安全で信頼できる環境で実行されると想定されており、機械学習システムの公平性を損なう潜在的な悪意のあるアンラーニング要求は無視されています。
この論文では、学習モデルの予測精度を維持しながら学習モデルの公平性を損なうことを目的とした、新しいクラスの選択的忘却攻撃を紹介します。これにより、モデル所有者がモデルのパフォーマンスの低下を検出するのを防ぐことができます。
さらに、さまざまな攻撃シナリオにわたって悪意のある学習解除リクエストを生成できる、選択的忘却攻撃のための革新的な最適化フレームワークを提案します。
私たちは、さまざまな EDM データセットを使用した広範な実験を通じて、公平性に対する提案した選択的忘却攻撃の有効性を検証します。

要約(オリジナル)

In education data mining (EDM) communities, machine learning has achieved remarkable success in discovering patterns and structures to tackle educational challenges. Notably, fairness and algorithmic bias have gained attention in learning analytics of EDM. With the increasing demand for the right to be forgotten, there is a growing need for machine learning models to forget sensitive data and its impact, particularly within the realm of EDM. The paradigm of selective forgetting, also known as machine unlearning, has been extensively studied to address this need by eliminating the influence of specific data from a pre-trained model without complete retraining. However, existing research assumes that interactive data removal operations are conducted in secure and reliable environments, neglecting potential malicious unlearning requests to undermine the fairness of machine learning systems. In this paper, we introduce a novel class of selective forgetting attacks designed to compromise the fairness of learning models while maintaining their predictive accuracy, thereby preventing the model owner from detecting the degradation in model performance. Additionally, we propose an innovative optimization framework for selective forgetting attacks, capable of generating malicious unlearning requests across various attack scenarios. We validate the effectiveness of our proposed selective forgetting attacks on fairness through extensive experiments using diverse EDM datasets.

arxiv情報

著者 Wei Qian,Aobo Chen,Chenxu Zhao,Yangyi Li,Mengdi Huai
発行日 2024-05-29 16:52:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク