要約
複数の産業部門にわたる人工知能の統合の増加は、その開発と展開の透明性、信頼、監査可能性を確保するための堅牢なメカニズムを必要とします。
このトピックは、AIの安全性に関する規制と法律を導入するためのさまざまな管轄区域での最近の呼び出しに照らして特に重要です。
このホワイトペーパーでは、完全に検証可能なAIパイプラインのフレームワークを提案し、重要なコンポーネントを特定し、データ調達からトレーニング、推論、および学習まで、AIライフサイクルのさまざまな段階にわたる検証可能性に寄与する既存の暗号化アプローチを分析することを提案します。
このフレームワークは、AIが生成された資産とともに暗号化された証明を提供して、その出所と正確性の下流の検証を可能にすることにより、誤った情報と戦うために使用できます。
私たちの調査結果は、孤立したAIプロセスに効率的であるだけでなく、AIパイプライン内の異なるプロセスで効率的に「リンク可能」である暗号化ツールを開発するために進行中の研究の重要性を強調し、エンドツーエンドの検証可能なAIテクノロジーの開発をサポートします。
要約(オリジナル)
The increasing integration of Artificial Intelligence across multiple industry sectors necessitates robust mechanisms for ensuring transparency, trust, and auditability of its development and deployment. This topic is particularly important in light of recent calls in various jurisdictions to introduce regulation and legislation on AI safety. In this paper, we propose a framework for complete verifiable AI pipelines, identifying key components and analyzing existing cryptographic approaches that contribute to verifiability across different stages of the AI lifecycle, from data sourcing to training, inference, and unlearning. This framework could be used to combat misinformation by providing cryptographic proofs alongside AI-generated assets to allow downstream verification of their provenance and correctness. Our findings underscore the importance of ongoing research to develop cryptographic tools that are not only efficient for isolated AI processes, but that are efficiently `linkable’ across different processes within the AI pipeline, to support the development of end-to-end verifiable AI technologies.
arxiv情報
著者 | Kar Balan,Robert Learney,Tim Wood |
発行日 | 2025-03-28 16:20:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google