Efficient Multiuser AI Downloading via Reusable Knowledge Broadcasting

要約

6G モバイル ネットワークでは、エッジ デバイス上でリアルタイムの適応型人工知能を実現するための、現場でのモデル ダウンロードが重要なユースケースとして浮上しています。
ただし、多様で高次元のモデルをワイヤレス リンク経由で複数のデバイスに同時にダウンロードすると、重大な通信ボトルネックが発生します。
このボトルネックを克服するために、モデルブロードキャストとアセンブル(MBA)のフレームワークを提案します。これは、タスク間で共有されるパラメータを参照し、再利用可能な知識を活用して、パラメータブロードキャストによる通信オーバーヘッドの削減を可能にする最初の試みです。
MBA フレームワークは 2 つの主要なコンポーネントで構成されます。
1 つ目の MBA プロトコルは、モデル ライブラリからのパラメータ選択、ブロードキャスト用の電力制御、デバイスでのモデルの組み立てなどのシステム操作を定義します。
2 番目のコンポーネントは、パラメーター選択と電源制御 (PS-PC) の共同設計であり、デバイスのモデルのパフォーマンスを保証し、ダウンロードの遅延を最小限に抑えます。
対応する最適化問題は、その最適性を損なうことなく、逐次的な PS および PC サブ問題に分解することによって単純化されます。
PS 副問題は、2 つの効率的なアルゴリズムを設計することによって効率的に解決されます。
一方では、貪欲なパラメータ選択の低複雑性アルゴリズムは、候補モデル セットと選択メトリックの構築を特徴とし、どちらもタスク間で再利用可能な知識を最大化するという基準に基づいて設計されています。
一方、最適ツリー検索アルゴリズムは、モデル アーキテクチャの制約とインテリジェントな分枝限定検索を使用して枝刈りされたコンパクトなバイナリ ツリーの提案された構築によって効率が向上します。
最適な PS が与えられると、最適な PC ポリシーが閉じた形式で導出されます。
広範な実験により、従来のモデルのダウンロードと比較して、提案された MBA によってダウンロード遅延が大幅に短縮されることが実証されました。

要約(オリジナル)

For the 6G mobile networks, in-situ model downloading has emerged as an important use case to enable real-time adaptive artificial intelligence on edge devices. However, the simultaneous downloading of diverse and high-dimensional models to multiple devices over wireless links presents a significant communication bottleneck. To overcome the bottleneck, we propose the framework of model broadcasting and assembling (MBA), which represents the first attempt on leveraging reusable knowledge, referring to shared parameters among tasks, to enable parameter broadcasting to reduce communication overhead. The MBA framework comprises two key components. The first, the MBA protocol, defines the system operations including parameter selection from a model library, power control for broadcasting, and model assembling at devices. The second component is the joint design of parameter-selection-and-power-control (PS-PC), which provides guarantees on devices’ model performance and minimizes the downloading latency. The corresponding optimization problem is simplified by decomposition into the sequential PS and PC sub-problems without compromising its optimality. The PS sub-problem is solved efficiently by designing two efficient algorithms. On one hand, the low-complexity algorithm of greedy parameter selection features the construction of candidate model sets and a selection metric, both of which are designed under the criterion of maximum reusable knowledge among tasks. On the other hand, the optimal tree-search algorithm gains its efficiency via the proposed construction of a compact binary tree pruned using model architecture constraints and an intelligent branch-and-bound search. Given optimal PS, the optimal PC policy is derived in closed form. Extensive experiments demonstrate the substantial reduction in downloading latency achieved by the proposed MBA compared to traditional model downloading.

arxiv情報

著者 Hai Wu,Qunsong Zeng,Kaibin Huang
発行日 2023-07-28 05:30:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IT, math.IT パーマリンク