Large Language Models for Power Scheduling: A User-Centric Approach

要約

従来の最適化およびスケジューリング スキームは、固定された事前定義されたシステム要件を満たすように設計されていますが、将来のシステムは、高いエクスペリエンス品質 (QoE) と柔軟性の達成を目指して、ユーザー主導のアプローチとパーソナライズされたサービスに移行しています。
この課題は、ユーザーと機械の間に共通言語がないため、ユーザーの要件がほとんど考慮されていないワイヤレスおよびデジタル化されたエネルギー ネットワークで特に顕著です。
強力なラージ言語モデル (LLM) の出現は、ユーザーとデバイス間の自然な通信インターフェイスを提供することにより、従来のシステム中心の手法からより高度なユーザー中心のアプローチへの根本的な脱却を示しています。
この論文では、任意のユーザーの音声要求 (VRQ) をリソース割り当てベクトルに変換する 3 つの LLM エージェントを構築することにより、リソース スケジューリング問題に対する新しいアーキテクチャを初めて紹介します。
具体的には、リクエストを最適化問題 (OP) に変換する LLM 意図認識エージェント、LLM OP パラメーター識別エージェント、および LLM OP 解決エージェントを設計します。
システムのパフォーマンスを評価するために、電気自動車 (EV) の充電に関連した典型的な VRQ のデータベースを構築します。
概念実証として、主に Llama 3 8B を使用します。
さまざまなプロンプト エンジニアリング シナリオでのテストを通じて、得られた結果は、提案されたアーキテクチャの効率を実証します。
実行されたパフォーマンス分析により、重要な洞察を抽出できます。
たとえば、現実世界の問題をモデル化するためにより多くの候補 OP を使用すると、認識/OP 分類のノイズ レベルが高くなるため、最終的なパフォーマンスが低下する可能性があります。
すべての結果とコードはオープンソースです。

要約(オリジナル)

While traditional optimization and scheduling schemes are designed to meet fixed, predefined system requirements, future systems are moving toward user-driven approaches and personalized services, aiming to achieve high quality-of-experience (QoE) and flexibility. This challenge is particularly pronounced in wireless and digitalized energy networks, where users’ requirements have largely not been taken into consideration due to the lack of a common language between users and machines. The emergence of powerful large language models (LLMs) marks a radical departure from traditional system-centric methods into more advanced user-centric approaches by providing a natural communication interface between users and devices. In this paper, for the first time, we introduce a novel architecture for resource scheduling problems by constructing three LLM agents to convert an arbitrary user’s voice request (VRQ) into a resource allocation vector. Specifically, we design an LLM intent recognition agent to translate the request into an optimization problem (OP), an LLM OP parameter identification agent, and an LLM OP solving agent. To evaluate system performance, we construct a database of typical VRQs in the context of electric vehicle (EV) charging. As a proof of concept, we primarily use Llama 3 8B. Through testing with different prompt engineering scenarios, the obtained results demonstrate the efficiency of the proposed architecture. The conducted performance analysis allows key insights to be extracted. For instance, having a larger set of candidate OPs to model the real-world problem might degrade the final performance because of a higher recognition/OP classification noise level. All results and codes are open source.

arxiv情報

著者 Thomas Mongaillard,Samson Lasaulce,Othman Hicheur,Chao Zhang,Lina Bariah,Vineeth S. Varma,Hang Zou,Qiyang Zhao,Merouane Debbah
発行日 2024-11-14 06:06:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SY, eess.SY パーマリンク