要約
Federated Learning は、データ共有の必要性を排除することで AI アプリケーションに革命を起こす方法を提供します。
しかし、調査によると、トレーニング中に情報が抽出される可能性があり、差分プライバシーなどの追加のプライバシー保護対策が不可欠となっています。
実際のフェデレーション ラーニング アプリケーションを実装するには、パフォーマンスの公平な配分から差別のない動作に至るまで、公平性を考慮する必要があります。
特にリスクの高いアプリケーション (ヘルスケアなど) では、過去の差別的エラーの繰り返しを回避することが最も重要です。
最近の研究では、プライバシーと公平性の間には本質的な緊張関係があることが実証されているため、フェデレーション ラーニングにおいてプライバシーと公平性を統合するための現在の方法を調査するために、多方面からの文献レビューを実施しています。
私たちの分析は、プライバシーと公平性の関係が無視されており、現実世界のアプリケーションに重大なリスクをもたらしていることを示しています。
私たちは、プライバシー、公平性、パフォーマンスの関係を調査する必要性を強調し、統合されたフェデレーテッド ラーニング フレームワークの作成を提唱します。
要約(オリジナル)
Federated Learning presents a way to revolutionize AI applications by eliminating the necessity for data sharing. Yet, research has shown that information can still be extracted during training, making additional privacy-preserving measures such as differential privacy imperative. To implement real-world federated learning applications, fairness, ranging from a fair distribution of performance to non-discriminative behaviour, must be considered. Particularly in high-risk applications (e.g. healthcare), avoiding the repetition of past discriminatory errors is paramount. As recent research has demonstrated an inherent tension between privacy and fairness, we conduct a multivocal literature review to examine the current methods to integrate privacy and fairness in federated learning. Our analyses illustrate that the relationship between privacy and fairness has been neglected, posing a critical risk for real-world applications. We highlight the need to explore the relationship between privacy, fairness, and performance, advocating for the creation of integrated federated learning frameworks.
arxiv情報
著者 | Beatrice Balbierer,Lukas Heinlein,Domenique Zipperling,Niklas Kühl |
発行日 | 2024-08-16 11:15:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google