AI-Powered Autonomous Weapons Risk Geopolitical Instability and Threaten AI Research

要約

近年、自律型兵器システム(AWS)の開発において機械学習(ML)が採用されるようになり、地政学的安定とAI研究における自由な意見交換に深刻なリスクが生じている。このトピックは、超知的人工知能(AGI)に起因するリスクと比較すると、最近では比較的注目されていないが、技術発展の過程に関する仮定をあまり必要としないため、より近い将来の問題である。MLはすでに、多くの戦場で人間の兵士をAWSで代替することを可能にしており、攻撃的戦争を遂行するための人的コスト、ひいては政治的コストを削減している。敵対国の場合、これは「低強度」紛争の可能性を高め、より広範な戦争へとエスカレートする危険性がある。非同盟の敵対国の場合は、侵略戦争への国内からの反撃を減らすことができる。この効果は、民間人犠牲者のリスクなど、軍事AIの使用をめぐる他の倫理的問題に関係なく発生する可能性があり、超人的なAI能力を必要としない。さらに、AWSの軍事的価値は、AIを活用した軍拡競争や、AI研究に対する国家安全保障上の制限の誤った押し付けの危険性を提起している。本稿の目的は、軍事技術における完全またはそれに近い自律性がもたらす近未来のリスクについて、一般市民やML研究者の認識を高めることであり、これらのリスクを軽減するための規制上の提案を行うことである。我々は、AI政策の専門家と特に国防AIコミュニティに対して、ここで強調したような世界の安定とAI研究への悪影響を避けるために、AWSの開発と配備において透明性と慎重さを受け入れるよう呼びかける。

要約(オリジナル)

The recent embrace of machine learning (ML) in the development of autonomous weapons systems (AWS) creates serious risks to geopolitical stability and the free exchange of ideas in AI research. This topic has received comparatively little attention of late compared to risks stemming from superintelligent artificial general intelligence (AGI), but requires fewer assumptions about the course of technological development and is thus a nearer-future issue. ML is already enabling the substitution of AWS for human soldiers in many battlefield roles, reducing the upfront human cost, and thus political cost, of waging offensive war. In the case of peer adversaries, this increases the likelihood of ‘low intensity’ conflicts which risk escalation to broader warfare. In the case of non-peer adversaries, it reduces the domestic blowback to wars of aggression. This effect can occur regardless of other ethical issues around the use of military AI such as the risk of civilian casualties, and does not require any superhuman AI capabilities. Further, the military value of AWS raises the specter of an AI-powered arms race and the misguided imposition of national security restrictions on AI research. Our goal in this paper is to raise awareness among the public and ML researchers on the near-future risks posed by full or near-full autonomy in military technology, and we provide regulatory suggestions to mitigate these risks. We call upon AI policy experts and the defense AI community in particular to embrace transparency and caution in their development and deployment of AWS to avoid the negative effects on global stability and AI research that we highlight here.

arxiv情報

著者 Riley Simmons-Edler,Ryan Badman,Shayne Longpre,Kanaka Rajan
発行日 2024-05-31 23:28:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CY, cs.LG, cs.RO パーマリンク