A Technological Perspective on Misuse of Available AI

要約

民間人工知能 (AI) の潜在的な悪意のある悪用は、国内および国際レベルで安全保障に深刻な脅威をもたらします。
技術的な観点から自律システムを定義し、AI 開発の特徴を説明するだけでなく、既存のオープンに利用可能な AI テクノロジーが悪用される可能性があることを示します。
これを強調するために、政治的、デジタル的、物理的セキュリティを脅かす潜在的に悪用される可能性のある AI の 3 つの例示的な使用例を開発しました。
ユースケースは、学術界、民間部門、開発者コミュニティからの既存の AI テクノロジーとコンポーネントから構築できます。
これは、自由に利用できる AI を自律兵器システムにどのように組み合わせることができるかを示しています。
ユースケースに基づいて、AI の悪用による潜在的な脅威を防ぐための制御ポイントとさらなる対策を導き出します。
さらに、自律型兵器システム (AWS) に関する議論において、民間 AI システムの悪意による悪用についての検討を促進します。

要約(オリジナル)

Potential malicious misuse of civilian artificial intelligence (AI) poses serious threats to security on a national and international level. Besides defining autonomous systems from a technological viewpoint and explaining how AI development is characterized, we show how already existing and openly available AI technology could be misused. To underline this, we developed three exemplary use cases of potentially misused AI that threaten political, digital and physical security. The use cases can be built from existing AI technologies and components from academia, the private sector and the developer-community. This shows how freely available AI can be combined into autonomous weapon systems. Based on the use cases, we deduce points of control and further measures to prevent the potential threat through misused AI. Further, we promote the consideration of malicious misuse of civilian AI systems in the discussion on autonomous weapon systems (AWS).

arxiv情報

著者 Lukas Pöhler,Valentin Schrader,Alexander Ladwein,Florian von Keller
発行日 2024-03-22 16:30:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク