Locking Machine Learning Models into Hardware

要約

最新の機械学習モデルは高価な IP であり、ビジネスの競争力は多くの場合、この IP を機密に保つことにかかっています。
これにより、これらのモデルの展開方法が制限されます。たとえば、基礎となるモデルを必然的に漏洩せずにデバイス上にモデルを展開する方法は不明です。
同時に、マルチパーティ コンピューティングや準同型暗号化などの機密コンピューティング テクノロジは、広く採用するには依然として実用的ではありません。
このペーパーでは、別のアプローチを採用し、モデルを特定のハードウェアでのみ使用できるように制限することで、無許可のハードウェアでの採用を不便にすることで、無許可のモデルの使用を阻止する ML 固有のメカニズムの実現可能性を調査します。
そうすれば、たとえ IP が侵害されたとしても、特殊なハードウェアや大規模なモデルの調整がなければ、それを簡単に使用することはできません。
ある意味、私たちは機械学習モデルを特定のハードウェアに安価にロックできるようにしようとしています。
モデルを量子化と非互換にするなど、モデル表現の効率をターゲットにするか、算術演算のサイクル数などのハードウェアの特定の特性にモデルの演算を結び付けることで、ロック メカニズムが実現可能であることを示します。
ロックには無視できる作業量とレイテンシーのオーバーヘッドが伴う一方で、未承認のハードウェア上での結果のモデルの使用可能性が大幅に制限されることを実証します。

要約(オリジナル)

Modern Machine Learning models are expensive IP and business competitiveness often depends on keeping this IP confidential. This in turn restricts how these models are deployed — for example it is unclear how to deploy a model on-device without inevitably leaking the underlying model. At the same time, confidential computing technologies such as Multi-Party Computation or Homomorphic encryption remain impractical for wide adoption. In this paper we take a different approach and investigate feasibility of ML-specific mechanisms that deter unauthorized model use by restricting the model to only be usable on specific hardware, making adoption on unauthorized hardware inconvenient. That way, even if IP is compromised, it cannot be trivially used without specialised hardware or major model adjustment. In a sense, we seek to enable cheap locking of machine learning models into specific hardware. We demonstrate that locking mechanisms are feasible by either targeting efficiency of model representations, such making models incompatible with quantisation, or tie the model’s operation on specific characteristics of hardware, such as number of cycles for arithmetic operations. We demonstrate that locking comes with negligible work and latency overheads, while significantly restricting usability of the resultant model on unauthorized hardware.

arxiv情報

著者 Eleanor Clifford,Adhithya Saravanan,Harry Langford,Cheng Zhang,Yiren Zhao,Robert Mullins,Ilia Shumailov,Jamie Hayes
発行日 2024-05-31 16:35:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク