Can Machines Learn Robustly, Privately, and Efficiently?

要約

機械学習 (ML) アプリケーションの成功は、膨大なデータセットと分散アーキテクチャに依存しており、データセットが成長するにつれて、ML に課題が生じます。
データに機密情報が含まれることが多い現実のシナリオでは、データ ポイズニングやハードウェア障害などの問題がよく発生します。
プライバシーと堅牢性を確保することは、公共の場で ML を広く導入するために不可欠です。
このペーパーでは、分散アーキテクチャでこれらの目的を達成するためにかかるコストを検討します。
分散 ML におけるプライバシーと堅牢性の意味を概説し、それらを単独で効率的に実現する方法を明らかにします。
しかし、これらの目的を統合すると、計算効率が著しく低下することになると我々は主張します。
私たちはこの複雑なバランスを掘り下げ、ML アプリケーションにおけるプライバシー、堅牢性、計算効率に関する課題と解決策を探ります。

要約(オリジナル)

The success of machine learning (ML) applications relies on vast datasets and distributed architectures, which, as they grow, present challenges for ML. In real-world scenarios, where data often contains sensitive information, issues like data poisoning and hardware failures are common. Ensuring privacy and robustness is vital for the broad adoption of ML in public life. This paper examines the costs associated with achieving these objectives in distributed architectures. We overview the meanings of privacy and robustness in distributed ML, and clarify how they can be achieved efficiently in isolation. However, we contend that the integration of these objectives entails a notable compromise in computational efficiency. We delve into this intricate balance, exploring the challenges and solutions for privacy, robustness, and computational efficiency in ML applications.

arxiv情報

著者 Youssef Allouah,Rachid Guerraoui,John Stephan
発行日 2023-12-22 14:10:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DC, cs.LG パーマリンク