要約
人工知能と深層学習の大きな進歩として、畳み込みニューラルネットワークは、コンピュータービジョンや画像処理を含むいくつかの分野で多くの問題を解決することに目覚ましい成功を収めてきました。
リアルタイムのパフォーマンス、アルゴリズムの堅牢性、および高速なトレーニングプロセスは、これらのコンテキストで未解決の問題のままです。
さらに、オブジェクトの認識と検出は、産業部門で一般的に使用されている、リソースに制約のある組み込みシステムにとって困難なタスクです。
これらの問題を克服するために、ネットのハイパーパラメータの数を減らすために、古典的なモデル次数削減手法である適切な直交分解に基づく次元削減フレームワークを提案します。
このようなフレームワークをPASCALVOCデータセットを使用してSSD300アーキテクチャに適用し、転移学習のコンテキストでネットワークの次元を縮小し、ネットワークの微調整を大幅に高速化することを実証しました。
要約(オリジナル)
As a major breakthrough in artificial intelligence and deep learning, Convolutional Neural Networks have achieved an impressive success in solving many problems in several fields including computer vision and image processing. Real-time performance, robustness of algorithms and fast training processes remain open problems in these contexts. In addition object recognition and detection are challenging tasks for resource-constrained embedded systems, commonly used in the industrial sector. To overcome these issues, we propose a dimensionality reduction framework based on Proper Orthogonal Decomposition, a classical model order reduction technique, in order to gain a reduction in the number of hyperparameters of the net. We have applied such framework to SSD300 architecture using PASCAL VOC dataset, demonstrating a reduction of the network dimension and a remarkable speedup in the fine-tuning of the network in a transfer learning context.
arxiv情報
著者 | Laura Meneghetti,Nicola Demo,Gianluigi Rozza |
発行日 | 2022-07-27 14:43:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google