要約
ヘルスケア、金融、セキュリティなどの重要な分野における ML モデルの急速な進歩により、堅牢なデータ セキュリティ、モデルの整合性、信頼性の高い出力の必要性が高まっています。
大規模でマルチモーダルな基本モデルは、複雑なタスクには不可欠ですが、スケーラビリティ、信頼性、誤用の可能性において課題を抱えています。
分散型システムは、ワークロードを分散し、中央の障害点を軽減することでソリューションを提供しますが、ノード間で機密データへの不正アクセスのリスクが生じます。
私たちは、責任ある AI 開発のために設計された包括的なフレームワークでこれらの課題に対処します。
私たちのアプローチには以下が組み込まれています。 1) 安全なモデル検証のためのゼロ知識証明。プライバシーを損なうことなく信頼を強化します。
2) コンセンサスベースの検証チェックにより、ノード間で一貫した出力が保証され、幻覚が軽減され、モデルの整合性が維持されます。
3) 異なるノード間でモデルを分割し、いかなる時点でも完全なデータ アクセスを防止することでデータ プライバシーを保護する分割学習手法。
4) データと計算を保護するための信頼された実行環境 (TEE) によるハードウェア ベースのセキュリティ。
このフレームワークは、セキュリティとプライバシーを強化し、マルチモーダル AI システムの信頼性と公平性を向上させることを目的としています。
リソースの効率的な利用を促進することは、より持続可能な AI 開発に貢献します。
私たちの最先端の証明と原則は、人工知能を責任を持って民主化する際のフレームワークの有効性を実証し、安全でプライベートな基礎モデルを構築するための有望なアプローチを提供します。
要約(オリジナル)
The rapid advancement of ML models in critical sectors such as healthcare, finance, and security has intensified the need for robust data security, model integrity, and reliable outputs. Large multimodal foundational models, while crucial for complex tasks, present challenges in scalability, reliability, and potential misuse. Decentralized systems offer a solution by distributing workload and mitigating central points of failure, but they introduce risks of unauthorized access to sensitive data across nodes. We address these challenges with a comprehensive framework designed for responsible AI development. Our approach incorporates: 1) Zero-knowledge proofs for secure model verification, enhancing trust without compromising privacy. 2) Consensus-based verification checks to ensure consistent outputs across nodes, mitigating hallucinations and maintaining model integrity. 3) Split Learning techniques that segment models across different nodes, preserving data privacy by preventing full data access at any point. 4) Hardware-based security through trusted execution environments (TEEs) to protect data and computations. This framework aims to enhance security and privacy and improve the reliability and fairness of multimodal AI systems. Promoting efficient resource utilization contributes to more sustainable AI development. Our state-of-the-art proofs and principles demonstrate the framework’s effectiveness in responsibly democratizing artificial intelligence, offering a promising approach for building secure and private foundational models.
arxiv情報
著者 | Hongyang Zhang,Yue Zhao,Claudio Angione,Harry Yang,James Buban,Ahmad Farhan,Fielding Johnston,Patrick Colangelo |
発行日 | 2024-12-12 18:10:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google