A priori compression of convolutional neural networks for wave simulators

要約

タイトル: 波のシミュレータに対する畳み込みニューラルネットワークの事前圧縮
要約:

– 畳み込みニューラルネットワークは、画像分類、顔認識、医療画像解析など、様々な分野で広く使用されている。
– 物理学におけるシミュレーションでは、リアルタイムで正確な予測が必要であり、ネットワークデザインには数百万のパラメータが含まれているため、そのような複雑なモデルを限られたメモリを持つデバイスにインストールすることは困難である。
– 圧縮技術を使用することで、パラメータ数を削減することで、より小さなサイズのCNNモデルを作成できる可能性がある。
– 本論文では、ニューラルネットワークのトレーニングの前に畳み込みレイヤーの圧縮テンソルフォーマットを事前に提案している。2または3のウェイカーネルを1つのフィルタに置き換える。
– 追加のオーバーフィッティングも防止できる。
– パラメータが少ないため、元の畳み込みニューラルネットワークモデルよりも予測に必要な時間またはトレーニングに必要な時間が大幅に短縮される。
– この論文では、物理データの有限要素(FE)予測に対する畳み込みニューラルネットワークの事前圧縮方法を提案し、2D波動方程式を解くFEモデルから物理データを検証する。
– 提案された畳み込み圧縮技術は、訓練可能なパラメータ数が少なく、メモリ使用量が少ないクラシックの畳み込みレイヤーと同等のパフォーマンスを実現することを示した。

要約(オリジナル)

Convolutional neural networks are now seeing widespread use in a variety of fields, including image classification, facial and object recognition, medical imaging analysis, and many more. In addition, there are applications such as physics-informed simulators in which accurate forecasts in real time with a minimal lag are required. The present neural network designs include millions of parameters, which makes it difficult to install such complex models on devices that have limited memory. Compression techniques might be able to resolve these issues by decreasing the size of CNN models that are created by reducing the number of parameters that contribute to the complexity of the models. We propose a compressed tensor format of convolutional layer, a priori, before the training of the neural network. 3-way kernels or 2-way kernels in convolutional layers are replaced by one-way fiters. The overfitting phenomena will be reduced also. The time needed to make predictions or time required for training using the original Convolutional Neural Networks model would be cut significantly if there were fewer parameters to deal with. In this paper we present a method of a priori compressing convolutional neural networks for finite element (FE) predictions of physical data. Afterwards we validate our a priori compressed models on physical data from a FE model solving a 2D wave equation. We show that the proposed convolutinal compression technique achieves equivalent performance as classical convolutional layers with fewer trainable parameters and lower memory footprint.

arxiv情報

著者 Hamza Boukraichi,Nissrine Akkari,Fabien Casenave,David Ryckelynck
発行日 2023-04-12 01:19:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CE, cs.LG パーマリンク