Privacy-Preserving Decentralized AI with Confidential Computing

要約

このペーパーでは、Web3 ドメイン用に設計された分散型 AI プラットフォームである Atoma Network 内の Confidential Computing (CC) を使用した分散型人工知能 (AI) におけるプライバシー保護について説明します。
分散型 AI は、集中的な監視を行わずに AI サービスを複数のエンティティに分散し、透明性と堅牢性を促進します。
ただし、この構造では、独自のモデルや個人データなどの機密資産が信頼できない参加者に公開される可能性があるため、プライバシーに関する重大な課題が生じます。
ゼロ知識機械学習 (zkML) などの暗号ベースのプライバシー保護技術には、法外な計算オーバーヘッドが発生します。
この制限に対処するために、Confidential Computing (CC) を活用することを提案します。
Confidential Computing は、ハードウェアベースの信頼できる実行環境 (TEE) を利用して機密データの処理を分離し、分散型で信頼できない可能性がある環境でも、モデル パラメーターとユーザー データの両方が安全に保たれるようにします。
TEE にはいくつかの制限がありますが、分散型 AI におけるプライバシーのギャップを埋めることができると私たちは信じています。
TEE を Atoma の分散フレームワークに統合する方法を検討します。

要約(オリジナル)

This paper addresses privacy protection in decentralized Artificial Intelligence (AI) using Confidential Computing (CC) within the Atoma Network, a decentralized AI platform designed for the Web3 domain. Decentralized AI distributes AI services among multiple entities without centralized oversight, fostering transparency and robustness. However, this structure introduces significant privacy challenges, as sensitive assets such as proprietary models and personal data may be exposed to untrusted participants. Cryptography-based privacy protection techniques such as zero-knowledge machine learning (zkML) suffers prohibitive computational overhead. To address the limitation, we propose leveraging Confidential Computing (CC). Confidential Computing leverages hardware-based Trusted Execution Environments (TEEs) to provide isolation for processing sensitive data, ensuring that both model parameters and user data remain secure, even in decentralized, potentially untrusted environments. While TEEs face a few limitations, we believe they can bridge the privacy gap in decentralized AI. We explore how we can integrate TEEs into Atoma’s decentralized framework.

arxiv情報

著者 Dayeol Lee,Jorge Antonio,Hisham Khan
発行日 2024-10-17 16:50:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク