要約
カメラ、ドローン、インターネットノードなどの最新のエッジデバイスは、オブジェクト認識、環境知覚、自律ナビゲーションなど、幅広いインテリジェントアプリケーションを可能にするために、深い学習に依存しています。
ただし、多くの場合、リソースに制約されているエッジデバイスにディープラーニングモデルを直接展開するには、従来のデジタルコンピューティングアーキテクチャを使用して、リアルタイム推論のための重要なメモリフットプリントと計算能力が必要です。
この論文では、深い学習推論におけるエネルギーの制約を克服するために設計されたワイヤレスエッジネットワークの新しいコンピューティングアーキテクチャであるWiseを紹介します。
Wiseは、2つの重要なイノベーションを通じてこの目標を達成します。ワイヤレスブロードキャストを介した分解モデルアクセスと、無線周波数での一般的な複雑なマトリックスベクトル乗算の一般的な物理学計算です。
空気上でワイヤレスブロードキャストモデルの重みを備えたソフトウェア定義のラジオプラットフォームを使用して、ワイズが165.8 TOPS/Wの計算効率に対応するクライアントごとに6.0 FJ/MACの超低動作電力で95.7%の画像分類精度を達成することを実証します。
このアプローチにより、ワイヤレスに接続されたエッジデバイスでのエネルギー効率の高い深い学習推論が可能になり、従来のデジタルコンピューティングと比較して、効率が2桁以上改善されます。
要約(オリジナル)
Modern edge devices, such as cameras, drones, and Internet-of-Things nodes, rely on deep learning to enable a wide range of intelligent applications, including object recognition, environment perception, and autonomous navigation. However, deploying deep learning models directly on the often resource-constrained edge devices demands significant memory footprints and computational power for real-time inference using traditional digital computing architectures. In this paper, we present WISE, a novel computing architecture for wireless edge networks designed to overcome energy constraints in deep learning inference. WISE achieves this goal through two key innovations: disaggregated model access via wireless broadcasting and in-physics computation of general complex-valued matrix-vector multiplications directly at radio frequency. Using a software-defined radio platform with wirelessly broadcast model weights over the air, we demonstrate that WISE achieves 95.7% image classification accuracy with ultra-low operation power of 6.0 fJ/MAC per client, corresponding to a computation efficiency of 165.8 TOPS/W. This approach enables energy-efficient deep learning inference on wirelessly connected edge devices, achieving more than two orders of magnitude improvement in efficiency compared to traditional digital computing.
arxiv情報
著者 | Zhihui Gao,Sri Krishna Vadlamani,Kfir Sulimany,Dirk Englund,Tingjun Chen |
発行日 | 2025-04-24 17:10:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google