要約
大規模言語モデル(LLM)は、明示的な監視を必要とせず、膨大な量のテキストから自然言語をモデル化することに成功している。本論文では、パスワードのモデル化におけるLLMの有効性を調査する。パスワード生成のためにパスワードの漏洩を学習させたLLMであるPassGPTを紹介する。PassGPTは、生成的敵対的ネットワーク(GAN)に基づく既存の方法よりも、2倍の数の以前に見たことのないパスワードを推測することで優れている。さらに、PassGPTのサンプリング手順を活用して、任意の制約に合致するパスワードを生成する、ガイド付きパスワード生成の概念を導入しています。最後に、PassGPTがパスワードに対して定義するエントロピーと確率分布の詳細な分析を行い、既存のパスワード強度推定を強化するための利用法について議論します。
要約(オリジナル)
Large language models (LLMs) successfully model natural language from vast amounts of text without the need for explicit supervision. In this paper, we investigate the efficacy of LLMs in modeling passwords. We present PassGPT, a LLM trained on password leaks for password generation. PassGPT outperforms existing methods based on generative adversarial networks (GAN) by guessing twice as many previously unseen passwords. Furthermore, we introduce the concept of guided password generation, where we leverage PassGPT sampling procedure to generate passwords matching arbitrary constraints, a feat lacking in current GAN-based strategies. Lastly, we conduct an in-depth analysis of the entropy and probability distribution that PassGPT defines over passwords and discuss their use in enhancing existing password strength estimators.
arxiv情報
著者 | Javier Rando,Fernando Perez-Cruz,Briland Hitaj |
発行日 | 2023-06-02 13:49:53+00:00 |
arxivサイト | arxiv_id(pdf) |