要約
基礎モデルの効率的な展開と微調整は、現代の人工知能において極めて重要です。
この研究では、モバイル エッジ コンピューティング (MEC) とユーザー機器 (UE) 上のローカル タスクのパフォーマンスを強化するために特別に設計された基盤モデルを統合する画期的なパラダイムを紹介します。
私たちのアプローチの中心となるのは、基礎モデルを 2 つのまとまったモジュールに分割する、革新的なエミュレーター アダプター アーキテクチャです。
この設計により、計算リソースが節約されるだけでなく、下流タスクの適応性と微調整効率も確保されます。
さらに、分散設定におけるエミュレータ アダプター構造のニーズに合わせて微調整された高度なリソース割り当てメカニズムを導入します。
このシステムによってもたらされる課題に対処するために、私たちはハイブリッド マルチエージェント深層強化学習 (DRL) 戦略を採用し、離散と連続の混合アクション スペースの処理に熟達し、動的で最適なリソース割り当てを保証します。
当社の包括的なシミュレーションと検証は、当社のアプローチの実用的な実行可能性を強調し、その堅牢性、効率性、拡張性を実証しています。
総合すると、この研究は、基礎モデルの展開と、計算効率とタスクの熟練度のバランスをとることについて、新たな視点を提供します。
要約(オリジナル)
The efficient deployment and fine-tuning of foundation models are pivotal in contemporary artificial intelligence. In this study, we present a groundbreaking paradigm integrating Mobile Edge Computing (MEC) with foundation models, specifically designed to enhance local task performance on user equipment (UE). Central to our approach is the innovative Emulator-Adapter architecture, segmenting the foundation model into two cohesive modules. This design not only conserves computational resources but also ensures adaptability and fine-tuning efficiency for downstream tasks. Additionally, we introduce an advanced resource allocation mechanism that is fine-tuned to the needs of the Emulator-Adapter structure in decentralized settings. To address the challenges presented by this system, we employ a hybrid multi-agent Deep Reinforcement Learning (DRL) strategy, adept at handling mixed discrete-continuous action spaces, ensuring dynamic and optimal resource allocations. Our comprehensive simulations and validations underscore the practical viability of our approach, demonstrating its robustness, efficiency, and scalability. Collectively, this work offers a fresh perspective on deploying foundation models and balancing computational efficiency with task proficiency.
arxiv情報
著者 | Wenhan Yu,Terence Jie Chua,Jun Zhao |
発行日 | 2023-10-26 15:47:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google