Efficient and Mathematically Robust Operations for Certified Neural Networks Inference

要約

近年、機械学習 (ML) とニューラル ネットワーク (NN) がさまざまな分野で広く使用され、注目を集めており、特に都市型エア モビリティ (UAM) 用の空飛ぶタクシーの出現など、自律性を実現するための交通分野で注目を集めています。
しかし、認証に関する懸念が浮上しており、ML および NN パイプライン全体を網羅する標準化されたプロセスの開発が余儀なくされています。
このペーパーでは、推論段階と必要なハードウェアを詳しく掘り下げ、IEEE 754 浮動小数点演算に関連する課題を強調し、代替の数値表現を提案します。
さまざまな合計アルゴリズムとドット積アルゴリズムを評価することで、非結合性に関連する問題を軽減することを目指しています。
さらに、固定小数点演算の調査により、浮動小数点方式に対する固定小数点演算の利点が明らかになり、ハードウェア効率が大幅に向上することが実証されました。
経験的なアプローチを採用し、ビット幅の最適化に固有の複雑さを考慮して、許容可能なレベルの精度を達成するために必要な最適なビット幅を確認します。

要約(オリジナル)

In recent years, machine learning (ML) and neural networks (NNs) have gained widespread use and attention across various domains, particularly in transportation for achieving autonomy, including the emergence of flying taxis for urban air mobility (UAM). However, concerns about certification have come up, compelling the development of standardized processes encompassing the entire ML and NN pipeline. This paper delves into the inference stage and the requisite hardware, highlighting the challenges associated with IEEE 754 floating-point arithmetic and proposing alternative number representations. By evaluating diverse summation and dot product algorithms, we aim to mitigate issues related to non-associativity. Additionally, our exploration of fixed-point arithmetic reveals its advantages over floating-point methods, demonstrating significant hardware efficiencies. Employing an empirical approach, we ascertain the optimal bit-width necessary to attain an acceptable level of accuracy, considering the inherent complexity of bit-width optimization.

arxiv情報

著者 Fabien Geyer,Johannes Freitag,Tobias Schulz,Sascha Uhrig
発行日 2024-01-16 09:22:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.LG パーマリンク