R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models

要約

分割フェデレーテッド ラーニング (SFL) は、分散機械学習 (ML) におけるコンピューティング効率の高いパラダイムであり、大規模な ML モデルのコンポーネントがリモート サーバーにアウトソーシングされます。
SFL における重大な課題は、特に無線チャネルを介して展開される場合、送信されたモデル パラメータが敵対的な妨害を受けやすく、学習プロセスを危険にさらす可能性があることです。
これは、言語理解にとって重要な大規模言語モデル (LLM) の単語埋め込みパラメータで特に顕著です。
この論文では、ML トレーニング損失発散の式を導き出し、それが平均二乗誤差 (MSE) によって上限があることを示すことにより、SFL におけるジャミング LLM 単語埋め込みの影響について厳密な洞察が提供されます。
この分析に基づいて、無線ネットワーク上の LLM を使用した回復力のある SFL (R-SFLLM) 用の物理層フレームワークが開発されます。
R-SFLLM は、ビームフォーミング、ユーザー スケジューリング、およびリソース割り当てを共同で最適化しながら、センシングを利用した新しいアンチジャミング戦略を考案することを目的として、ワイヤレス センシング データを活用してジャミング到来方向 (DoA) に関する情報を収集します。
BERT および RoBERTa モデルを使用した広範な実験により、R-SFLLM の有効性が実証され、さまざまな自然言語処理 (NLP) タスクおよびデータセットにわたってベースラインに近いパフォーマンスが達成されます。
提案された方法論ではさらに、敵対的トレーニング コンポーネントが導入されており、制御されたノイズ暴露により、トレーニング中の摂動パラメーターに対する LLM の回復力が大幅に強化されます。
結果は、特にリソース割り当てが不公平な場合、RoBERTa などのノイズに敏感なモデルがこの機能の恩恵を受けることを示しています。
また、特に最悪の場合の妨害は最悪の場合のモデル結果に変換されるため、妨害に強い SFL プロトコルの必要性が必要になることも示されています。

要約(オリジナル)

Split federated learning (SFL) is a compute-efficient paradigm in distributed machine learning (ML), where components of large ML models are outsourced to remote servers. A significant challenge in SFL, particularly when deployed over wireless channels, is the susceptibility of transmitted model parameters to adversarial jamming that could jeopardize the learning process. This is particularly pronounced for word embedding parameters in large language models (LLMs), which are crucial for language understanding. In this paper, rigorous insights are provided into the influence of jamming LLM word embeddings in SFL by deriving an expression for the ML training loss divergence and showing that it is upper-bounded by the mean squared error (MSE). Based on this analysis, a physical layer framework is developed for resilient SFL with LLMs (R-SFLLM) over wireless networks. R-SFLLM leverages wireless sensing data to gather information on the jamming directions-of-arrival (DoAs) for the purpose of devising a novel, sensing-assisted anti-jamming strategy while jointly optimizing beamforming, user scheduling, and resource allocation. Extensive experiments using BERT and RoBERTa models demonstrate R-SFLLM’s effectiveness, achieving close-to-baseline performance across various natural language processing (NLP) tasks and datasets. The proposed methodology further introduces an adversarial training component, where controlled noise exposure significantly enhances the LLM’s resilience to perturbed parameters during training. The results show that more noise-sensitive models, such as RoBERTa, benefit from this feature, especially when resource allocation is unfair. It is also shown that worst-case jamming in particular translates into worst-case model outcomes, thereby necessitating the need for jamming-resilient SFL protocols.

arxiv情報

著者 Aladin Djuhera,Vlad C. Andrei,Xinyang Li,Ullrich J. Mönich,Holger Boche,Walid Saad
発行日 2024-09-09 12:36:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.SP パーマリンク