Guaranteed Quantization Error Computation for Neural Network Model Compression

要約

タイトル:ニューラルネットワークモデル圧縮のための保証された量子化誤差計算

要約:

– ニューラルネットワークモデル圧縮技術は、産業システムの埋め込みデバイス上での深層ニューラルネットワークの計算問題を解決することができます。
– この論文では、量子化を伴うニューラルネットワーク圧縮における保証された出力誤差計算問題に取り組まれています。
– フィードフォワードニューラルネットワークとその量子化されたバージョンからマージドニューラルネットワークを構築し、2つのニューラルネットワーク間の正確な出力差を生成します。
– 次に、最適化ベースの手法と到達可能性分析手法が、マージドニューラルネットワークに適用され、保証された量子化誤差が計算されます。
– 最後に、提案された手法の適用性と効果を検証するために、数値例が提案されます。

要約(オリジナル)

Neural network model compression techniques can address the computation issue of deep neural networks on embedded devices in industrial systems. The guaranteed output error computation problem for neural network compression with quantization is addressed in this paper. A merged neural network is built from a feedforward neural network and its quantized version to produce the exact output difference between two neural networks. Then, optimization-based methods and reachability analysis methods are applied to the merged neural network to compute the guaranteed quantization error. Finally, a numerical example is proposed to validate the applicability and effectiveness of the proposed approach.

arxiv情報

著者 Wesley Cooke,Zihao Mo,Weiming Xiang
発行日 2023-04-26 20:21:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG, cs.NE パーマリンク