Securing Neural Networks with Knapsack Optimization

要約

ニューラル ネットワークを保持する MLaaS サービス プロバイダー (SP) は、ニューラル ネットワークの重みを秘密にしたいと考えています。
一方、ユーザーは、データを公開せずに SP のニューラル ネットワークを推論に利用したいと考えています。
マルチパーティ コンピューテーション (MPC) は、これを実現するソリューションを提供します。
MPC での計算には、関係者がデータを送受信するための通信が含まれます。
通常、非線形操作が主なボトルネックとなり、大量の通信帯域幅を必要とします。
このペーパーでは、多くのコンピューター ビジョン タスクのバックボーンとして機能する ResNet に焦点を当て、その非線形コンポーネント、特に ReLU の数を削減することを目指します。
私たちの重要な洞察は、空間的に近いピクセルが相関のある ReLU 応答を示すということです。
この洞察に基づいて、ピクセルごとの ReLU 操作をパッチごとの ReLU 操作に置き換えます。
このアプローチを「Block-ReLU」と呼びます。
ニューラル ネットワークのさまざまなレイヤーはさまざまな機能階層に対応するため、ニューラル ネットワークのさまざまなレイヤーに対してパッチ サイズの柔軟性を持たせることは理にかなっています。
私たちは、問題をナップザック問題に新たに変換することで、最適なパッチ サイズのセットを選択するアルゴリズムを考案しました。
ResNet50 バックボーンを使用した ImageNet の分類、ResNet18 バックボーンを使用した CIFAR100 の分類、MobileNetV2 バックボーンを使用した ADE20K のセマンティック セグメンテーション、および ResNet50 バックボーンを使用した Pascal VOC 2012 のセマンティック セグメンテーションの 4 つの問題に対して、半正直で安全な 3 パーティ設定でのアプローチを示します。
当社のアプローチは、少数の競合他社と比較して競争力のあるパフォーマンスを実現します。
私たちのソースコードは https://github.com/yg320/secure_inference から公開されています。

要約(オリジナル)

MLaaS Service Providers (SPs) holding a Neural Network would like to keep the Neural Network weights secret. On the other hand, users wish to utilize the SPs’ Neural Network for inference without revealing their data. Multi-Party Computation (MPC) offers a solution to achieve this. Computations in MPC involve communication, as the parties send data back and forth. Non-linear operations are usually the main bottleneck requiring the bulk of communication bandwidth. In this paper, we focus on ResNets, which serve as the backbone for many Computer Vision tasks, and we aim to reduce their non-linear components, specifically, the number of ReLUs. Our key insight is that spatially close pixels exhibit correlated ReLU responses. Building on this insight, we replace the per-pixel ReLU operation with a ReLU operation per patch. We term this approach ‘Block-ReLU’. Since different layers in a Neural Network correspond to different feature hierarchies, it makes sense to allow patch-size flexibility for the various layers of the Neural Network. We devise an algorithm to choose the optimal set of patch sizes through a novel reduction of the problem to the Knapsack Problem. We demonstrate our approach in the semi-honest secure 3-party setting for four problems: Classifying ImageNet using ResNet50 backbone, classifying CIFAR100 using ResNet18 backbone, Semantic Segmentation of ADE20K using MobileNetV2 backbone, and Semantic Segmentation of Pascal VOC 2012 using ResNet50 backbone. Our approach achieves competitive performance compared to a handful of competitors. Our source code is publicly available: https://github.com/yg320/secure_inference.

arxiv情報

著者 Yakir Gorski,Amir Jevnisek,Shai Avidan
発行日 2023-12-29 11:34:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク