要約
進化する機械学習の分野では、公平性の確保が重要な懸案事項となっており、意思決定プロセスにおける差別的な結果を軽減するように設計されたアルゴリズムの開発が促進されています。
しかし、グループ固有の概念ドリフトが存在する中で公平性を達成することは依然として未開拓の領域であり、私たちの研究はこの点における先駆的な取り組みを表しています。
グループ固有のコンセプト ドリフトとは、あるグループでは時間の経過とともにコンセプト ドリフトが発生する一方、別のグループでは発生しない状況を指し、精度がかなり安定していても公平性が低下します。
クライアントが共同でモデルをトレーニングするフェデレーテッド ラーニングのフレームワーク内では、その分散型の性質により、各クライアントがグループ固有のコンセプト ドリフトを独立して体験しながら、同じ基礎概念を共有し、公平性を維持するための複雑で動的な環境が作成されるため、これらの課題がさらに増幅されます。
私たちの研究の重要な貢献の 1 つは、グループ固有の概念ドリフトとそれに対応する分散型の問題を形式化して導入し、公平性の領域におけるその重大な重要性を明らかにしたことです。
さらに、先行研究からの洞察を活用して、既存の分散概念ドリフト適応アルゴリズムを適応させて、マルチモデルアプローチ、ローカルグループ固有のドリフト検出メカニズム、および経時的なモデルの連続クラスタリングを利用するグループ固有の分散概念ドリフトに取り組みます。
。
私たちの実験結果は、機械学習の公平性を高めるために、グループ固有の概念ドリフトとそれに対応する分散型概念に対処することの重要性を浮き彫りにしています。
要約(オリジナル)
In the evolving field of machine learning, ensuring fairness has become a critical concern, prompting the development of algorithms designed to mitigate discriminatory outcomes in decision-making processes. However, achieving fairness in the presence of group-specific concept drift remains an unexplored frontier, and our research represents pioneering efforts in this regard. Group-specific concept drift refers to situations where one group experiences concept drift over time while another does not, leading to a decrease in fairness even if accuracy remains fairly stable. Within the framework of federated learning, where clients collaboratively train models, its distributed nature further amplifies these challenges since each client can experience group-specific concept drift independently while still sharing the same underlying concept, creating a complex and dynamic environment for maintaining fairness. One of the significant contributions of our research is the formalization and introduction of the problem of group-specific concept drift and its distributed counterpart, shedding light on its critical importance in the realm of fairness. In addition, leveraging insights from prior research, we adapt an existing distributed concept drift adaptation algorithm to tackle group-specific distributed concept drift which utilizes a multi-model approach, a local group-specific drift detection mechanism, and continuous clustering of models over time. The findings from our experiments highlight the importance of addressing group-specific concept drift and its distributed counterpart to advance fairness in machine learning.
arxiv情報
著者 | Teresa Salazar,João Gama,Helder Araújo,Pedro Henriques Abreu |
発行日 | 2024-03-22 16:25:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google