Leveraging the HW/SW Optimizations and Ecosystems that Drive the AI Revolution

要約

本論文では、ディープニューラルネットワーク(DNN)の性能を向上させ、精度を維持するためのアーキテクチャ、設計、最適化の方法について、最先端の概要を紹介する。本論文では、機械学習処理パイプライン全体をカバーする一連の最適化について説明します。本論文では、2種類の最適化を紹介します。1つはDNNのモデルを変更し、NNの再トレーニングを必要とするもので、もう1つはそうでないものです。我々はGPU最適化に焦点を当てますが、提示された技術は他のAI推論プラットフォームでも使用できると考えています。DNNモデルの最適化を実証するために、オプティカルフローのための最も先進的なディープネットワークアーキテクチャの1つであるRAFT arXiv:2003.12039 を、人気のあるエッジAI推論プラットフォーム(Nvidia Jetson AGX Xavier)上で改善しました。

要約(オリジナル)

This paper presents a state-of-the-art overview on how to architect, design, and optimize Deep Neural Networks (DNNs) such that performance is improved and accuracy is preserved. The paper covers a set of optimizations that span the entire Machine Learning processing pipeline. We introduce two types of optimizations. The first alters the DNN model and requires NN re-training, while the second does not. We focus on GPU optimizations, but we believe the presented techniques can be used with other AI inference platforms. To demonstrate the DNN model optimizations, we improve one of the most advanced deep network architectures for optical flow, RAFT arXiv:2003.12039, on a popular edge AI inference platform (Nvidia Jetson AGX Xavier).

arxiv情報

著者 Humberto Carvalho,Pavel Zaykov,Asim Ukaye
発行日 2022-08-04 17:58:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク