要約
ユビキタス高度な暗号化標準(AES)などの暗号化アルゴリズムは、ハードウェアのこれらのアルゴリズムの安全な *物理的実装 *であり、暗号化キーなどの敏感なデータを必然的に「リーク」しています。
特に陰湿な形の漏れは、ハードウェアが電力を消費し、それが処理するデータとそれが実行する命令に統計的に関連付けられている方法で放射線を放出するという事実から生じます。
監督された深い学習は、 *サイドチャネル攻撃 *を実行するための最先端のツールとして浮上しました。これは、暗号化を通してその暗号化中に動作する機密データにマッピングされることを学習することにより、この漏れを活用します。
この作業では、そのような攻撃に対する防御 *を知らせるために、さまざまな時点で記録された測定による相対的な漏れを決定するための原則的なディープラーニングフレームワークを開発します。
この情報は、ハードウェアが漏れている理由とそれを緩和する方法を理解するために、暗号化ハードウェアデザイナーにとって非常に貴重です(たとえば、責任のあるコードまたは電子コンポーネントの特定のセクションを示すことにより)。
私たちのフレームワークは、測定のサブセットが与えられた機密データの条件付き分布を推定するように訓練された分類因子との間の敵対的なゲームと、これらの分類子の損失を最大化するために個々の測定値を確率的に消去する予算制約のある騒音分布に基づいています。
AE、ECC、RSA実装からの3つの評価メトリックと6つの公開されたパワー/EMトレースデータセットを使用して、8つのベースラインメソッドとの広範な実験的比較を通じて、以前の作業の制限を克服する方法と能力を実証します。
これらの実験のオープンソースPytorch実装を提供します。
要約(オリジナル)
While cryptographic algorithms such as the ubiquitous Advanced Encryption Standard (AES) are secure, *physical implementations* of these algorithms in hardware inevitably ‘leak’ sensitive data such as cryptographic keys. A particularly insidious form of leakage arises from the fact that hardware consumes power and emits radiation in a manner that is statistically associated with the data it processes and the instructions it executes. Supervised deep learning has emerged as a state-of-the-art tool for carrying out *side-channel attacks*, which exploit this leakage by learning to map power/radiation measurements throughout encryption to the sensitive data operated on during that encryption. In this work we develop a principled deep learning framework for determining the relative leakage due to measurements recorded at different points in time, in order to inform *defense* against such attacks. This information is invaluable to cryptographic hardware designers for understanding *why* their hardware leaks and how they can mitigate it (e.g. by indicating the particular sections of code or electronic components which are responsible). Our framework is based on an adversarial game between a family of classifiers trained to estimate the conditional distributions of sensitive data given subsets of measurements, and a budget-constrained noise distribution which probabilistically erases individual measurements to maximize the loss of these classifiers. We demonstrate our method’s efficacy and ability to overcome limitations of prior work through extensive experimental comparison with 8 baseline methods using 3 evaluation metrics and 6 publicly-available power/EM trace datasets from AES, ECC and RSA implementations. We provide an open-source PyTorch implementation of these experiments.
arxiv情報
著者 | Jimmy Gammell,Anand Raghunathan,Abolfazl Hashemi,Kaushik Roy |
発行日 | 2025-03-10 15:42:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google