要約
フィッシングメールは、機密情報を盗んだり金銭的損害を与えたりすることを目的として、偽のメールを送信してユーザーを騙そうとする重大なサイバー脅威です。
攻撃者は、多くの場合、信頼できる存在を装い、技術の進歩と高度化を利用して、フィッシングの検出と防止をより困難にします。
広範な学術研究にもかかわらず、フィッシング検出は依然としてサイバーセキュリティ環境において継続的かつ手ごわい課題です。
大規模言語モデル (LLM) とマスク言語モデル (MLM) には、長年の課題に対処する革新的なソリューションを提供する計り知れない可能性があります。
この研究論文では、フィッシングメールの検出のために設計された、最適化され微調整されたトランスフォーマーベースの DistilBERT モデルを紹介します。
検出プロセスでは、フィッシングメールのデータセットを使用し、前処理技術を利用してクラスの不均衡の問題をクリーンにして解決します。
実験を通じて、私たちのモデルが効果的に高精度を達成し、良好なパフォーマンスを発揮する能力を実証していることがわかりました。
最後に、Local Interpretable Model-Agnostic Explains (LIME) や Transformer Interpret などの Explainable-AI (XAI) 技術を使用して微調整されたモデルを実証し、フィッシングメールのテキスト分類のコンテキストでモデルがどのように予測を行うかを説明します。
要約(オリジナル)
Phishing email is a serious cyber threat that tries to deceive users by sending false emails with the intention of stealing confidential information or causing financial harm. Attackers, often posing as trustworthy entities, exploit technological advancements and sophistication to make detection and prevention of phishing more challenging. Despite extensive academic research, phishing detection remains an ongoing and formidable challenge in the cybersecurity landscape. Large Language Models (LLMs) and Masked Language Models (MLMs) possess immense potential to offer innovative solutions to address long-standing challenges. In this research paper, we present an optimized, fine-tuned transformer-based DistilBERT model designed for the detection of phishing emails. In the detection process, we work with a phishing email dataset and utilize the preprocessing techniques to clean and solve the imbalance class issues. Through our experiments, we found that our model effectively achieves high accuracy, demonstrating its capability to perform well. Finally, we demonstrate our fine-tuned model using Explainable-AI (XAI) techniques such as Local Interpretable Model-Agnostic Explanations (LIME) and Transformer Interpret to explain how our model makes predictions in the context of text classification for phishing emails.
arxiv情報
著者 | Mohammad Amaz Uddin,Iqbal H. Sarker |
発行日 | 2024-02-21 15:23:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google