要約
近年、バイナリ解析は、ソフトウェアを検査し、そのセキュリティを保証するための基本的なアプローチとして勢いを増しています。
ソフトウェアを実行するデバイスが指数関数的に増加したため、多くの研究が現在、ディープ ラーニング モデルに基づく新しい自律型ソリューションに移行しています。バイナリ解析の問題を解決する際に最先端のパフォーマンスが示されているからです。
このコンテキストで注目されているトピックの 1 つは、バイナリの類似性です。これは、アセンブリ コード内の 2 つの関数が同じソース コードからコンパイルされているかどうかを判断することで構成されます。
ただし、二項類似性の深層学習モデルが敵対的なコンテキストでどのように動作するかは不明です。
このホワイトペーパーでは、敵対的な例に対するバイナリ類似性モデルの回復力を研究し、ブラックボックス攻撃者とホワイトボックス攻撃者によって実行される標的型攻撃と非標的型攻撃の両方 (類似性目標に関して) の影響を受けやすいことを示します。
より詳細には、Spatial Greedy と呼ばれる新しい手法と、勾配を再利用する 1 つのホワイトボックス攻撃を含む、2 つのブラックボックス貪欲攻撃に対するバイナリ類似性について、3 つの現在の最先端ソリューションを広範にテストします。
画像分類器への攻撃に使用されるガイド付き戦略。
要約(オリジナル)
In recent years, binary analysis gained traction as a fundamental approach to inspect software and guarantee its security. Due to the exponential increase of devices running software, much research is now moving towards new autonomous solutions based on deep learning models, as they have been showing state-of-the-art performances in solving binary analysis problems. One of the hot topics in this context is binary similarity, which consists in determining if two functions in assembly code are compiled from the same source code. However, it is unclear how deep learning models for binary similarity behave in an adversarial context. In this paper, we study the resilience of binary similarity models against adversarial examples, showing that they are susceptible to both targeted and untargeted attacks (w.r.t. similarity goals) performed by black-box and white-box attackers. In more detail, we extensively test three current state-of-the-art solutions for binary similarity against two black-box greedy attacks, including a new technique that we call Spatial Greedy, and one white-box attack in which we repurpose a gradient-guided strategy used in attacks to image classifiers.
arxiv情報
著者 | Gianluca Capozzi,Daniele Cono D’Elia,Giuseppe Antonio Di Luna,Leonardo Querzoni |
発行日 | 2023-03-20 14:22:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google