Pathway to Secure and Trustworthy 6G for LLMs: Attacks, Defense, and Opportunities

要約

近年、大規模言語モデル(LLM)は、通信ネットワークを含む新たなアプリケーションにおいて、その適応性と拡張性から大きな関心を集めている。6Gモバイルエッジコンピューティングネットワークは、超高信頼性の低遅延通信と閉ループの大規模接続を提供するため、サービスとしてLLMをサポートすることができると予想されています。しかし、LLMはデータやモデルのプライバシーの問題に脆弱であり、ユーザーベースのサービスに展開するLLMの信頼性に影響を与える。本稿では、6GネットワークにおけるLLMの微調整に関連するセキュリティの脆弱性、特にメンバーシップ推論攻撃について検討する。攻撃者が下流タスクのファインチューニング・モデルにアクセスできる場合、メンバーシップ推論攻撃を実行できる攻撃ネットワークの特性を定義する。メンバーシップ推論攻撃はどのような下流タスクに対しても有効であり、LLMをサービスとして利用する際に個人情報漏洩につながる可能性があることを示す。実験結果から、名前付きエンティティ認識タスクにおいて、最大92%の攻撃成功率を達成できることを示す。実験分析に基づき、我々は可能な防御メカニズムについて議論し、6Gネットワークの文脈でLLMをより信頼できるものにするための可能な研究の方向性を提示する。

要約(オリジナル)

Recently, large language models (LLMs) have been gaining a lot of interest due to their adaptability and extensibility in emerging applications, including communication networks. It is anticipated that 6G mobile edge computing networks will be able to support LLMs as a service, as they provide ultra reliable low-latency communications and closed loop massive connectivity. However, LLMs are vulnerable to data and model privacy issues that affect the trustworthiness of LLMs to be deployed for user-based services. In this paper, we explore the security vulnerabilities associated with fine-tuning LLMs in 6G networks, in particular the membership inference attack. We define the characteristics of an attack network that can perform a membership inference attack if the attacker has access to the fine-tuned model for the downstream task. We show that the membership inference attacks are effective for any downstream task, which can lead to a personal data breach when using LLM as a service. The experimental results show that the attack success rate of maximum 92% can be achieved on named entity recognition task. Based on the experimental analysis, we discuss possible defense mechanisms and present possible research directions to make the LLMs more trustworthy in the context of 6G networks.

arxiv情報

著者 Sunder Ali Khowaja,Parus Khuwaja,Kapal Dev,Hussam Al Hamadi,Engin Zeydan
発行日 2024-08-01 17:15:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CR, cs.DC パーマリンク