A Domain Decomposition-Based CNN-DNN Architecture for Model Parallel Training Applied to Image Recognition Problems

要約

ディープ ニューラル ネットワーク (DNN)、特に畳み込みニューラル ネットワーク (CNN) は、最新のコンピューター アプリケーションに関するさまざまな問題に大きな進歩をもたらしました。
ただし、大量のデータセットの可用性の向上と最新のコンピューターの利用可能な計算能力の向上により、DNN および CNN モデルの複雑さとサイズが着実に増加し、トレーニング時間が長くなります。
そのため、複雑なネットワーク アーキテクチャのトレーニングを加速および並列化するために、さまざまな方法と試みが開発されてきました。
この作業では、モデルの並列トレーニング戦略を自然にサポートし、2 レベル ドメイン分割法 (DDM) に大まかに着想を得た、新しい CNN-DNN アーキテクチャが提案されています。
まず、ローカル CNN モデル、つまりサブネットワークが定義され、サブイメージなどの入力データの重複部分または非重複部分で動作します。
サブネットワークは完全に並行してトレーニングできます。
各サブネットワークは、それぞれのローカル入力データのみに基づいて、特定の機械学習問題のローカル決定を出力します。
その後、ローカル サブネットワークのローカル決定を評価し、最終的なグローバル決定を生成する追加の DNN モデルがトレーニングされます。
DDM との類推に関しては、DNN は粗い問題として解釈できるため、新しいアプローチは 2 レベルのドメイン分割として解釈できます。
この論文では、CNN を使用した画像分類問題のみが考慮されます。
さまざまな 2D 画像分類問題の実験結果、顔認識問題、および 3D コンピュータ断層撮影 (CT) スキャンの分類問題が提供されます。
結果は、提案されたアプローチが、グローバル モデルと比較して必要なトレーニング時間を大幅に短縮できること、さらに、基礎となる分類問題の精度を向上させるのにも役立つことを示しています。

要約(オリジナル)

Deep neural networks (DNNs) and, in particular, convolutional neural networks (CNNs) have brought significant advances in a wide range of modern computer application problems. However, the increasing availability of large amounts of datasets as well as the increasing available computational power of modern computers lead to a steady growth in the complexity and size of DNN and CNN models, and thus, to longer training times. Hence, various methods and attempts have been developed to accelerate and parallelize the training of complex network architectures. In this work, a novel CNN-DNN architecture is proposed that naturally supports a model parallel training strategy and that is loosely inspired by two-level domain decomposition methods (DDM). First, local CNN models, that is, subnetworks, are defined that operate on overlapping or nonoverlapping parts of the input data, for example, sub-images. The subnetworks can be trained completely in parallel. Each subnetwork outputs a local decision for the given machine learning problem which is exclusively based on the respective local input data. Subsequently, an additional DNN model is trained which evaluates the local decisions of the local subnetworks and generates a final, global decision. With respect to the analogy to DDM, the DNN can be interpreted as a coarse problem and hence, the new approach can be interpreted as a two-level domain decomposition. In this paper, solely image classification problems using CNNs are considered. Experimental results for different 2D image classification problems are provided as well as a face recognition problem, and a classification problem for 3D computer tomography (CT) scans. The results show that the proposed approach can significantly accelerate the required training time compared to the global model and, additionally, can also help to improve the accuracy of the underlying classification problem.

arxiv情報

著者 Axel Klawonn,Martin Lanser,Janine Weber
発行日 2023-02-13 18:06:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 65N55, 68T07, 68W10, 68W15, cs.CV, cs.LG, I.2.6 パーマリンク