LLM in the Shell: Generative Honeypots

要約

ハニーポットはサイバーセキュリティにおいて不可欠なツールである。しかし、ハニーポットのほとんどは(対話性の高いものでさえ)、人間の攻撃者を巻き込み、欺くために必要なリアリズムを欠いている。この制限により、ハニーポットは容易に見破られ、その有効性を妨げている。本研究では、大規模言語モデルに基づき、動的でリアルなソフトウェアハニーポットを作成する新しい方法を紹介する。予備的な結果は、LLMが、決定論的な応答、適応性の欠如など、これまでのハニーポットの重要な限界に対処できる、信頼できる動的なハニーポットを作成できることを示している。私たちは、ハニーポットからの回答が偽物かどうかを判断する必要がある人間の攻撃者との実験を実施することで、各コマンドの現実性を評価した。shelLMと呼ばれる我々の提案するハニーポットは、0.92の精度を達成した。

要約(オリジナル)

Honeypots are essential tools in cybersecurity. However, most of them (even the high-interaction ones) lack the required realism to engage and fool human attackers. This limitation makes them easily discernible, hindering their effectiveness. This work introduces a novel method to create dynamic and realistic software honeypots based on Large Language Models. Preliminary results indicate that LLMs can create credible and dynamic honeypots capable of addressing important limitations of previous honeypots, such as deterministic responses, lack of adaptability, etc. We evaluated the realism of each command by conducting an experiment with human attackers who needed to say if the answer from the honeypot was fake or not. Our proposed honeypot, called shelLM, reached an accuracy rate of 0.92.

arxiv情報

著者 Muris Sladić,Veronica Valeros,Carlos Catania,Sebastian Garcia
発行日 2023-08-31 22:05:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL, cs.CR パーマリンク