要約
私たちの社会は人工知能 (AI) の恩恵をますます受けています。
残念なことに、AI が攻撃的な目的にも使用されていることを示す証拠が増えています。
これまでの研究により、AI の導入がセキュリティとプライバシーの目的の違反につながる可能性があるさまざまなユースケースの例が明らかになりました。
しかし、AI の攻撃的な可能性について全体像を描くことができた既存の研究はありません。
この SoK 論文では、攻撃的 AI の異種機能の体系的な分析の基礎を築くことを目指しています。
特に、私たちは、(i) 人間とシステムの両方に対する AI リスクを考慮し、(ii) 学術文献、専門家の意見、産業現場、一般人からの知識を統合および抽出します。これらはすべて、攻撃的な AI に関する貴重な情報源です。
。
このような多様な知識源の調整を可能にするために、攻撃的な AI に関連する重要な技術的要素を反映する共通の基準セットを考案します。
このような基準を利用して、以下を体系的に分析します。 95 件の研究論文。
38 InfoSec ブリーフィング (BlackHat などから)
多様な背景と専門知識を持つ個人を対象としたユーザー調査 (N=549) の回答。
と12人の専門家の意見。
私たちの貢献は、今日 AI が攻撃的に使用される可能性のある懸念される方法 (その一部は以前の研究では見落とされていた) を明らかにするだけでなく、今後数年間でこの脅威に対処するための足掛かりにもなります。
要約(オリジナル)
Our society increasingly benefits from Artificial Intelligence (AI). Unfortunately, more and more evidence shows that AI is also used for offensive purposes. Prior works have revealed various examples of use cases in which the deployment of AI can lead to violation of security and privacy objectives. No extant work, however, has been able to draw a holistic picture of the offensive potential of AI. In this SoK paper we seek to lay the ground for a systematic analysis of the heterogeneous capabilities of offensive AI. In particular we (i) account for AI risks to both humans and systems while (ii) consolidating and distilling knowledge from academic literature, expert opinions, industrial venues, as well as laymen — all of which being valuable sources of information on offensive AI. To enable alignment of such diverse sources of knowledge, we devise a common set of criteria reflecting essential technological factors related to offensive AI. With the help of such criteria, we systematically analyze: 95 research papers; 38 InfoSec briefings (from, e.g., BlackHat); the responses of a user study (N=549) entailing individuals with diverse backgrounds and expertise; and the opinion of 12 experts. Our contributions not only reveal concerning ways (some of which overlooked by prior work) in which AI can be offensively used today, but also represent a foothold to address this threat in the years to come.
arxiv情報
著者 | Saskia Laura Schröer,Giovanni Apruzzese,Soheil Human,Pavel Laskov,Hyrum S. Anderson,Edward W. N. Bernroider,Aurore Fass,Ben Nassi,Vera Rimmer,Fabio Roli,Samer Salam,Ashley Shen,Ali Sunyaev,Tim Wadwha-Brown,Isabel Wagner,Gang Wang |
発行日 | 2024-12-24 14:02:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google