要約
このレポートは、EU AI法の汎用AI(GPAI)実践規範(第3草案)で提案された措置と、大手AI企業が採用した現在の慣行との詳細な比較を提供します。
EUがGPAIモデルプロバイダーの拘束力のある義務の実施に向けて移動すると、実践規範は、具体的な技術的コミットメントで法的要件を埋めるための鍵となります。
私たちの分析は、ドラフトの安全とセキュリティセクションに焦点を当てています。これは、最も先進的なモデル(コミットメントII.1-II.16)のプロバイダーにのみ関連し、個々の測定に関連する現在の公開文書の引用から抜粋しています。
Openai、Anthropic、Google Deepmind、Microsoft、Meta、Amazonなどを含む12を超える企業から、企業のフロンティア安全フレームワークやモデルカードを含むさまざまなドキュメントタイプを体系的にレビューしました。
このレポートは、法的コンプライアンスの兆候であることを意図したものでも、実践規範や企業のポリシーに関する規範的な観点をとることもありません。
代わりに、先例の証拠を浮上させることにより、規制当局とGPAIモデルプロバイダーの間の継続的な対話を知らせることを目指しています。
要約(オリジナル)
This report provides a detailed comparison between the measures proposed in the EU AI Act’s General-Purpose AI (GPAI) Code of Practice (Third Draft) and current practices adopted by leading AI companies. As the EU moves toward enforcing binding obligations for GPAI model providers, the Code of Practice will be key to bridging legal requirements with concrete technical commitments. Our analysis focuses on the draft’s Safety and Security section which is only relevant for the providers of the most advanced models (Commitments II.1-II.16) and excerpts from current public-facing documents quotes that are relevant to each individual measure. We systematically reviewed different document types – including companies’ frontier safety frameworks and model cards – from over a dozen companies, including OpenAI, Anthropic, Google DeepMind, Microsoft, Meta, Amazon, and others. This report is not meant to be an indication of legal compliance nor does it take any prescriptive viewpoint about the Code of Practice or companies’ policies. Instead, it aims to inform the ongoing dialogue between regulators and GPAI model providers by surfacing evidence of precedent.
arxiv情報
著者 | Lily Stelling,Mick Yang,Rokas Gipiškis,Leon Staufer,Ze Shen Chin,Siméon Campos,Michael Chen |
発行日 | 2025-04-21 15:44:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google