要約
欧州連合の人工知能法 (AI 法) は、グラフ ニューラル ネットワーク (GNN) に重大な影響を与える、人工知能 (AI) および機械学習 (ML) システムの開発と監督のための包括的なガイドラインを導入しています。
このペーパーでは、複雑なグラフ構造のデータを操作する GNN に対して AI 法によってもたらされる特有の課題について取り上げます。
データ管理、データ ガバナンス、堅牢性、人間による監視、プライバシーに関する法律の要件により、GNN に合わせた戦略が必要になります。
私たちの研究では、これらの要件が GNN トレーニングに及ぼす影響を調査し、コンプライアンスを確保するための方法を提案しています。
私たちは、GNN のコンテキストにおけるバイアス、ロバスト性、説明可能性、プライバシーの詳細な分析を提供し、公平なサンプリング戦略と効果的な解釈可能性手法の必要性を強調します。
私たちの貢献は、新しい法的枠組みの下で GNN に具体的なガイダンスを提供し、未解決の疑問と今後の研究の方向性を特定することにより、研究のギャップを埋めるものです。
要約(オリジナル)
The European Union’s Artificial Intelligence Act (AI Act) introduces comprehensive guidelines for the development and oversight of Artificial Intelligence (AI) and Machine Learning (ML) systems, with significant implications for Graph Neural Networks (GNNs). This paper addresses the unique challenges posed by the AI Act for GNNs, which operate on complex graph-structured data. The legislation’s requirements for data management, data governance, robustness, human oversight, and privacy necessitate tailored strategies for GNNs. Our study explores the impact of these requirements on GNN training and proposes methods to ensure compliance. We provide an in-depth analysis of bias, robustness, explainability, and privacy in the context of GNNs, highlighting the need for fair sampling strategies and effective interpretability techniques. Our contributions fill the research gap by offering specific guidance for GNNs under the new legislative framework and identifying open questions and future research directions.
arxiv情報
著者 | Barbara Hoffmann,Jana Vatter,Ruben Mayer |
発行日 | 2024-10-29 15:22:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google