SoK: On the Offensive Potential of AI

要約

私たちの社会は、人工知能(AI)からますます恩恵を受けています。
残念ながら、ますます多くの証拠が、AIが攻撃的な目的でも使用されていることを示しています。
以前の作品は、AIの展開がセキュリティとプライバシーの目標の違反につながる可能性のあるユースケースのさまざまな例を明らかにしました。
しかし、既存の作業は、AIの攻撃的な可能性の全体的な絵を描くことができませんでした。
このsok論文では、攻撃的なAIの不均一な能力の体系的な分析のために地面を築こうとしています。
特に、(i)人間とシステムの両方に対するAIのリスクを説明しながら、(ii)知識を学術文献、専門家の意見、産業場、素人から統合および蒸留することを説明します。

このような多様な知識源の調整を可能にするために、攻撃的なAIに関連する本質的な技術的要因を反映する共通の基準セットを考案します。
このような基準の助けを借りて、次のように体系的に分析します。95の研究論文。
38 Infosecブリーフィング(Blackhatなど);
ユーザー調査の回答(n = 549)は、多様な背景と専門知識を持つ個人を伴います。
そして12人の専門家の意見。
私たちの貢献は、AIが今日攻撃的に使用できる方法(以前の作業で見落としているもの)に関するものだけでなく、今後数年間のこの脅威に対処するための足場を表しているだけであることを明らかにしています。

要約(オリジナル)

Our society increasingly benefits from Artificial Intelligence (AI). Unfortunately, more and more evidence shows that AI is also used for offensive purposes. Prior works have revealed various examples of use cases in which the deployment of AI can lead to violation of security and privacy objectives. No extant work, however, has been able to draw a holistic picture of the offensive potential of AI. In this SoK paper we seek to lay the ground for a systematic analysis of the heterogeneous capabilities of offensive AI. In particular we (i) account for AI risks to both humans and systems while (ii) consolidating and distilling knowledge from academic literature, expert opinions, industrial venues, as well as laypeople — all of which being valuable sources of information on offensive AI. To enable alignment of such diverse sources of knowledge, we devise a common set of criteria reflecting essential technological factors related to offensive AI. With the help of such criteria, we systematically analyze: 95 research papers; 38 InfoSec briefings (from, e.g., BlackHat); the responses of a user study (N=549) entailing individuals with diverse backgrounds and expertise; and the opinion of 12 experts. Our contributions not only reveal concerning ways (some of which overlooked by prior work) in which AI can be offensively used today, but also represent a foothold to address this threat in the years to come.

arxiv情報

著者 Saskia Laura Schröer,Giovanni Apruzzese,Soheil Human,Pavel Laskov,Hyrum S. Anderson,Edward W. N. Bernroider,Aurore Fass,Ben Nassi,Vera Rimmer,Fabio Roli,Samer Salam,Ashley Shen,Ali Sunyaev,Tim Wadhwa-Brown,Isabel Wagner,Gang Wang
発行日 2025-01-24 11:39:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.CY, cs.LG パーマリンク