要約
画像認識タスクは通常、ディープラーニングを使用し、膨大な処理能力を必要とするため、高速かつタイムリーな処理のために GPU や TPU などのハードウェア アクセラレータに依存します。
モデル展開中のハードウェア アクセラレータでのマッピングが最適ではないために、リアルタイムの画像認識タスクで障害が発生する可能性があり、タイミングの不確実性や誤った動作につながる可能性があります。
ハードウェア アクセラレータでのマッピングは、ディープ ラーニング フレームワーク、コンパイラ、デバイス ライブラリなど、コンピューティング環境と呼ばれる複数のソフトウェア コンポーネントを通じて行われます。
自動運転や医療画像処理などの安全性が重要なアプリケーションでの画像認識タスクの使用が増加しているため、深層学習フレームワーク、コンパイラーの最適化、ハードウェアなどのパラメーターの影響など、コンピューター環境の変化に対する画像認識タスクの堅牢性を評価することが不可欠です。
モデルのパフォーマンスと正確性に関するデバイスは十分に理解されていません。
この論文では、深層学習モデルのバリアントの生成、実行、差分分析、および多くの計算環境パラメータのテストを可能にする差分テスト フレームワークを紹介します。
私たちのフレームワークを使用して、ImageNet データセットを使用した 3 つの一般的な画像認識モデルの堅牢性分析の実証研究を実施し、深層学習フレームワーク、コンパイラーの最適化、およびハードウェア デバイスの変更の影響を評価します。
さまざまな設定における誤分類と推論時間の違いに関する影響を報告します。
合計すると、コンパイラの最適化を適用すると、深層学習フレームワーク間で最大 72% の出力ラベルの違いが発生し、推論時間に関して最大 82% の予期せぬパフォーマンス低下が観察されました。
フレームワークの分析ツールを使用して、観察された違いの理由を理解するために障害分析も実行します。
要約(オリジナル)
Image recognition tasks typically use deep learning and require enormous processing power, thus relying on hardware accelerators like GPUs and TPUs for fast, timely processing. Failure in real-time image recognition tasks can occur due to sub-optimal mapping on hardware accelerators during model deployment, which may lead to timing uncertainty and erroneous behavior. Mapping on hardware accelerators is done through multiple software components like deep learning frameworks, compilers, device libraries, that we refer to as the computational environment. Owing to the increased use of image recognition tasks in safety-critical applications like autonomous driving and medical imaging, it is imperative to assess their robustness to changes in the computational environment, as the impact of parameters like deep learning frameworks, compiler optimizations, and hardware devices on model performance and correctness is not well understood. In this paper we present a differential testing framework, which allows deep learning model variant generation, execution, differential analysis and testing for a number of computational environment parameters. Using our framework, we conduct an empirical study of robustness analysis of three popular image recognition models using the ImageNet dataset, assessing the impact of changing deep learning frameworks, compiler optimizations, and hardware devices. We report the impact in terms of misclassifications and inference time differences across different settings. In total, we observed up to 72% output label differences across deep learning frameworks, and up to 82% unexpected performance degradation in terms of inference time, when applying compiler optimizations. Using the analysis tools in our framework, we also perform fault analysis to understand the reasons for the observed differences.
arxiv情報
著者 | Nikolaos Louloudakis,Perry Gibson,José Cano,Ajitha Rajan |
発行日 | 2023-06-26 15:38:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google