Exploration of TPUs for AI Applications

要約

Tensor Processing Unit (TPU) は、Google が開発したディープラーニングに特化したハードウェア アクセラレータです。
このペーパーは、AI でのアプリケーションに焦点を当てて、クラウドおよびエッジ コンピューティングにおける TPU を調査することを目的としています。
TPU の概要、その一般的なアーキテクチャ、特にニューラル ネットワークに関連した設計、コンパイル手法、サポート フレームワークについて説明します。
さらに、クラウドおよびエッジ TPU のパフォーマンスを他の対応するチップ アーキテクチャと比較分析します。
私たちの結果は、TPU がクラウドとエッジ コンピューティングの両方でパフォーマンスを大幅に向上させることができることを示しています。
さらに、このホワイト ペーパーでは、Edge TPU 上で AI アーキテクチャを効率的に展開するための最適化技術と、エッジ コンピューティング シナリオでより堅牢な比較分析を行うためのベンチマーク標準に​​ついてさらなる研究が不可欠であることを強調しています。
この研究推進の背後にある主な動機は、TPU によって促進される効率的な AI 高速化により、時間、資金、環境リソースの大幅な節約につながる可能性があるということです。

要約(オリジナル)

Tensor Processing Units (TPUs) are specialized hardware accelerators for deep learning developed by Google. This paper aims to explore TPUs in cloud and edge computing focusing on its applications in AI. We provide an overview of TPUs, their general architecture, specifically their design in relation to neural networks, compilation techniques and supporting frameworks. Furthermore, we provide a comparative analysis of Cloud and Edge TPU performance against other counterpart chip architectures. Our results show that TPUs can provide significant performance improvements in both cloud and edge computing. Additionally, this paper underscores the imperative need for further research in optimization techniques for efficient deployment of AI architectures on the Edge TPU and benchmarking standards for a more robust comparative analysis in edge computing scenarios. The primary motivation behind this push for research is that efficient AI acceleration, facilitated by TPUs, can lead to substantial savings in terms of time, money, and environmental resources.

arxiv情報

著者 Diego Sanmartín Carrión,Vera Prohaska
発行日 2023-11-14 18:30:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.AR パーマリンク