Towards AI Forensics: Did the Artificial Intelligence System Do It?

要約

人工知能 (AI) は、ますます自律的な方法で、私たちの日常生活に影響を与える意思決定を行います。
彼らの行動は事故や危害を引き起こす可能性があり、より一般的には規制に違反する可能性があります。
AI が特定のイベントを引き起こしたかどうか、もし引き起こしたのであれば何が AI の動作を引き起こしたのかを判断することは、重要なフォレンジックな質問です。
フォレンジック調査の問題と戦略の概念化を提供します。
私たちは、潜在的に「設計上悪意がある」AIとグレーボックス分析に焦点を当てています。
畳み込みニューラル ネットワークを使用した評価は、悪意のある AI を特定するための課題とアイデアを示しています。

要約(オリジナル)

Artificial intelligence (AI) makes decisions impacting our daily lives in an increasingly autonomous manner. Their actions might cause accidents, harm, or, more generally, violate regulations. Determining whether an AI caused a specific event and, if so, what triggered the AI’s action, are key forensic questions. We provide a conceptualization of the problems and strategies for forensic investigation. We focus on AI that is potentially “malicious by design” and grey box analysis. Our evaluation using convolutional neural networks illustrates challenges and ideas for identifying malicious AI.

arxiv情報

著者 Johannes Schneider,Frank Breitinger
発行日 2023-08-11 10:17:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク