LLM in the Shell: Generative Honeypots

要約

ハニーポットはサイバーセキュリティにおいて不可欠なツールです。
ただし、それらのほとんどは (インタラクションの多いものであっても)、人間の攻撃者を攻撃して欺くために必要なリアリズムを欠いています。
この制限により、それらは容易に識別され、その有効性が妨げられます。
この研究では、大規模言語モデルに基づいて動的で現実的なソフトウェア ハニーポットを作成する新しい方法を紹介します。
暫定的な結果は、LLM が、決定的な応答や適応性の欠如など、以前のハニーポットの重要な制限に対処できる信頼性の高い動的なハニーポットを作成できることを示しています。
ハニーポットからの答えは偽物かどうか。
私たちが提案したshellLMと呼ばれるハニーポットの精度は0.92に達しました。
実験の再現に必要なソース コードとプロンプトは公開されています。

要約(オリジナル)

Honeypots are essential tools in cybersecurity. However, most of them (even the high-interaction ones) lack the required realism to engage and fool human attackers. This limitation makes them easily discernible, hindering their effectiveness. This work introduces a novel method to create dynamic and realistic software honeypots based on Large Language Models. Preliminary results indicate that LLMs can create credible and dynamic honeypots capable of addressing important limitations of previous honeypots, such as deterministic responses, lack of adaptability, etc. We evaluated the realism of each command by conducting an experiment with human attackers who needed to say if the answer from the honeypot was fake or not. Our proposed honeypot, called shelLM, reached an accuracy of 0.92. The source code and prompts necessary for replicating the experiments have been made publicly available.

arxiv情報

著者 Muris Sladić,Veronica Valeros,Carlos Catania,Sebastian Garcia
発行日 2024-02-09 14:03:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CR パーマリンク