VulnSense: Efficient Vulnerability Detection in Ethereum Smart Contracts by Multimodal Learning with Graph Neural Network and Language Model

要約

このペーパーでは、グラフベースの自然言語処理 (NLP) モデルのマルチモーダル学習アプローチを使用して、イーサリアム スマート コントラクトの脆弱性を効率的に検出する包括的なアプローチである VulnSense フレームワークについて説明します。
私たちが提案するフレームワークは、ソース コード、オペコード シーケンス、バイトコードから抽出されたコントロール フロー グラフ (CFG) で構成されるスマート コントラクトの 3 種類の機能を組み合わせたものです。
これらの特徴を抽出して分析するために、Bidirectional Encoder Representations from Transformers (BERT)、Bidirectional Long Short-Term Memory (BiLSTM)、および Graph Neural Network (GNN) モデルを採用しています。
マルチモーダル アプローチの最後のレイヤーは、イーサリアム スマート コントラクトの脆弱性を予測するために使用される完全に接続されたレイヤーで構成されます。
単一機能または単一モデルの深層学習技術に依存する既存の脆弱性検出方法の限界に対処することで、私たちの方法は精度と有効性の制約を超えます。
私たちは、Curated、SolidiFI-Benchmark、Smartbugs Wild の 3 つのデータセットの組み合わせから派生した 1.769 のスマート コントラクトのコレクションを使用して VulnSense を評価します。
次に、GNN、BiLSTM、BERT アーキテクチャによって提供されるさまざまなユニモーダルおよびマルチモーダル学習手法と比較します。
実験結果は、私たちが提案したアプローチの優れたパフォーマンスを示しており、脆弱なスマート コントラクトの 3 つのカテゴリすべてで平均精度 77.96\% を達成しています。

要約(オリジナル)

This paper presents VulnSense framework, a comprehensive approach to efficiently detect vulnerabilities in Ethereum smart contracts using a multimodal learning approach on graph-based and natural language processing (NLP) models. Our proposed framework combines three types of features from smart contracts comprising source code, opcode sequences, and control flow graph (CFG) extracted from bytecode. We employ Bidirectional Encoder Representations from Transformers (BERT), Bidirectional Long Short-Term Memory (BiLSTM) and Graph Neural Network (GNN) models to extract and analyze these features. The final layer of our multimodal approach consists of a fully connected layer used to predict vulnerabilities in Ethereum smart contracts. Addressing limitations of existing vulnerability detection methods relying on single-feature or single-model deep learning techniques, our method surpasses accuracy and effectiveness constraints. We assess VulnSense using a collection of 1.769 smart contracts derived from the combination of three datasets: Curated, SolidiFI-Benchmark, and Smartbugs Wild. We then make a comparison with various unimodal and multimodal learning techniques contributed by GNN, BiLSTM and BERT architectures. The experimental outcomes demonstrate the superior performance of our proposed approach, achieving an average accuracy of 77.96\% across all three categories of vulnerable smart contracts.

arxiv情報

著者 Phan The Duy,Nghi Hoang Khoa,Nguyen Huu Quyen,Le Cong Trinh,Vu Trung Kien,Trinh Minh Hoang,Van-Hau Pham
発行日 2023-09-15 15:26:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR パーマリンク