要約
フィッシング攻撃は、攻撃者が継続的に進化し、一般的な検出システムを回避するための戦術を強化する最も一般的で永続的なサイバーセキュリティの脅威の1つであり続けています。
人工知能と機械学習の大幅な進歩にもかかわらず、解釈可能な推論を忠実に再現して、フィッシングの判断を支える分類と説明可能性が依然として挑戦的です。
自然言語処理の最近の進歩により、大規模な言語モデル(LLM)は、ドメイン固有のフィッシング分類タスクを改善するための有望な方向性と可能性を示しています。
ただし、分類モデルの信頼性と堅牢性を高めるには、LLMSからの正確な予測だけでなく、それらの予測に沿った一貫した信頼できる説明も必要です。
したがって、重要な質問は残ります。LLMSは、フィッシングメールを正確に分類するだけでなく、予測と内部的に自己整合する説明を生成できますか?
これらの質問に答えるために、Bert、Llamaモデル、ウィザードを含む微調整された変圧器ベースのモデルがあり、ドメインの関連性を向上させ、バイナリシーケンス分類、Contrastive Learning(CL)、および直接的な優先最適化(DPO)を使用して、フィッシング固有の区別に合わせて調整します。
そのために、シェップリー値(CC SHAP)に基づいて一貫性測定値を適用することにより、フィッシングの分類と説明のパフォーマンスを調べました。
全体として、我々の調査結果は、Llamaモデルがより強い予測の説明を示すことを示しています。信頼できる意思決定の精度が欠けているにもかかわらず、CC SHAPスコアの高いトークンアラインメントがありますが、ウィザードはより良い予測精度を達成しますが、CC SHAPスコアが低くなります。
要約(オリジナル)
Phishing attacks remain one of the most prevalent and persistent cybersecurity threat with attackers continuously evolving and intensifying tactics to evade the general detection system. Despite significant advances in artificial intelligence and machine learning, faithfully reproducing the interpretable reasoning with classification and explainability that underpin phishing judgments remains challenging. Due to recent advancement in Natural Language Processing, Large Language Models (LLMs) show a promising direction and potential for improving domain specific phishing classification tasks. However, enhancing the reliability and robustness of classification models requires not only accurate predictions from LLMs but also consistent and trustworthy explanations aligning with those predictions. Therefore, a key question remains: can LLMs not only classify phishing emails accurately but also generate explanations that are reliably aligned with their predictions and internally self-consistent? To answer these questions, we have fine-tuned transformer based models, including BERT, Llama models, and Wizard, to improve domain relevance and make them more tailored to phishing specific distinctions, using Binary Sequence Classification, Contrastive Learning (CL) and Direct Preference Optimization (DPO). To that end, we examined their performance in phishing classification and explainability by applying the ConsistenCy measure based on SHAPley values (CC SHAP), which measures prediction explanation token alignment to test the model’s internal faithfulness and consistency and uncover the rationale behind its predictions and reasoning. Overall, our findings show that Llama models exhibit stronger prediction explanation token alignment with higher CC SHAP scores despite lacking reliable decision making accuracy, whereas Wizard achieves better prediction accuracy but lower CC SHAP scores.
arxiv情報
著者 | Shova Kuikel,Aritran Piplai,Palvi Aggarwal |
発行日 | 2025-06-16 17:54:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google