要約
この研究では、特に無線通信アプリケーション向けの大規模言語モデル (LLM) の評価と微調整を強化することを目的とした特殊なデータセットを開発します。
このデータセットには、簡単なものから難しいものまでさまざまな難易度にわたる、正誤問題や多肢選択タイプを含む、多様なマルチホップ質問のセットが含まれています。
エンティティの抽出と質問の生成に高度な言語モデルを利用することで、厳格なデータ キュレーション プロセスが採用され、高品質と関連性が維持されます。
さらに、Pointwise V-Information (PVI) ベースの微調整手法を導入し、詳細な理論分析と、さまざまなモデルを比較した場合に 2.24\% および 1.31\% のパフォーマンス向上をもたらし、トレーニング データの情報内容を定量化する際の使用の正当性を提供します。
それぞれベースラインに。
実際のタスクで提案された方法論を使用して微調整されたモデルの有効性を実証するために、技術論文からの最適化問題の要約や、生成される非直交多元接続 (NOMA) に関連する数学的問題の解決など、さまざまなタスクも検討します。
提案されているマルチエージェント フレームワークを使用します。
シミュレーション結果では、ROUGE-L メトリクスで 20.9\% という要約タスクのパフォーマンスの大幅な向上が示されています。
また、LLM を微調整する際のスケーリング則と、無線通信分野で LLM が直面する課題についても研究し、無線通信タスクへの LLM の適応に関する洞察を提供します。
このデータセットと微調整方法論は、LLM のトレーニングと評価を強化し、無線通信の研究と応用における LLM の進歩に貢献することを目的としています。
要約(オリジナル)
In this work, we develop a specialized dataset aimed at enhancing the evaluation and fine-tuning of large language models (LLMs) specifically for wireless communication applications. The dataset includes a diverse set of multi-hop questions, including true/false and multiple-choice types, spanning varying difficulty levels from easy to hard. By utilizing advanced language models for entity extraction and question generation, rigorous data curation processes are employed to maintain high quality and relevance. Additionally, we introduce a Pointwise V-Information (PVI) based fine-tuning method, providing a detailed theoretical analysis and justification for its use in quantifying the information content of training data with 2.24\% and 1.31\% performance boost for different models compared to baselines, respectively. To demonstrate the effectiveness of the fine-tuned models with the proposed methodologies on practical tasks, we also consider different tasks, including summarizing optimization problems from technical papers and solving the mathematical problems related to non-orthogonal multiple access (NOMA), which are generated by using the proposed multi-agent framework. Simulation results show significant performance gain in summarization tasks with 20.9\% in the ROUGE-L metrics. We also study the scaling laws of fine-tuning LLMs and the challenges LLMs face in the field of wireless communications, offering insights into their adaptation to wireless communication tasks. This dataset and fine-tuning methodology aim to enhance the training and evaluation of LLMs, contributing to advancements in LLMs for wireless communication research and applications.
arxiv情報
著者 | Yushen Lin,Ruichen Zhang,Wenqi Huang,Kaidi Wang,Zhiguo Ding,Daniel K. C. So,Dusit Niyato |
発行日 | 2025-01-16 16:19:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google