要約
大規模言語モデル (LLM) がますます洗練されると、悪用の可能性が大幅に高まります。
スイス AI 安全賞への応募作品として、2 つの主要なプロセスに LLM を利用する新しいタイプの変成マルウェアを紹介します。
まず、LLM は、マルウェア対策プログラムによるシグネチャベースの検出を回避するための自動コード書き換えに使用されます。
次に、マルウェアは、LLM を利用して電子メール返信をソーシャル エンジニアリングし、受信者に添付されたマルウェアの実行を促すことにより、そのコピーを電子メール経由で拡散します。
私たちの提出物には、機能的な最小限のプロトタイプが含まれており、LLM がサイバーセキュリティにもたらすリスクを強調し、インテリジェントなマルウェアに関するさらなる研究の必要性を強調しています。
要約(オリジナル)
With increasingly sophisticated large language models (LLMs), the potential for abuse rises drastically. As a submission to the Swiss AI Safety Prize, we present a novel type of metamorphic malware leveraging LLMs for two key processes. First, LLMs are used for automatic code rewriting to evade signature-based detection by antimalware programs. The malware then spreads its copies via email by utilizing an LLM to socially engineer email replies to encourage recipients to execute the attached malware. Our submission includes a functional minimal prototype, highlighting the risks that LLMs pose for cybersecurity and underscoring the need for further research into intelligent malware.
arxiv情報
著者 | Benjamin Zimmerman,David Zollikofer |
発行日 | 2024-07-12 13:40:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google