要約
大規模な言語モデル(LLM)は、人工知能の大幅な進歩を表し、さまざまなドメインにわたってアプリケーションを見つけます。
ただし、トレーニング用の大規模なインターネットが設定したデータセットへの依存は、重要なドメイン(例:ヘルスケア)で悪化している顕著なプライバシーの問題をもたらします。
さらに、特定のアプリケーション固有のシナリオでは、プライベートデータでこれらのモデルを微調整する必要がある場合があります。
この調査では、LLMSに関連するプライバシーの脅威を批判的に検証し、これらのモデルが機密情報を暗記し、誤って明らかにする可能性を強調しています。
LLMSに対するプライバシー攻撃をレビューすることにより、現在の脅威を調査し、学習パイプライン全体にプライバシーメカニズムを統合するための包括的なソリューションを提案します。
これらのソリューションは、匿名のトレーニングデータセットから、トレーニング中のプライバシーの違いを実装したり、トレーニング後の推論やマシンの学習を実装したりすることにまで及びます。
既存の文献の包括的なレビューは、LLMSでプライバシーを維持するための継続的な課題、利用可能なツール、および将来の方向性を強調しています。
この作業の目的は、プライバシーの保存方法とリスクの緩和におけるそれらの有効性を完全に理解することにより、より安全で信頼できるAIシステムの開発を導くことです。
要約(オリジナル)
Large Language Models (LLMs) represent a significant advancement in artificial intelligence, finding applications across various domains. However, their reliance on massive internet-sourced datasets for training brings notable privacy issues, which are exacerbated in critical domains (e.g., healthcare). Moreover, certain application-specific scenarios may require fine-tuning these models on private data. This survey critically examines the privacy threats associated with LLMs, emphasizing the potential for these models to memorize and inadvertently reveal sensitive information. We explore current threats by reviewing privacy attacks on LLMs and propose comprehensive solutions for integrating privacy mechanisms throughout the entire learning pipeline. These solutions range from anonymizing training datasets to implementing differential privacy during training or inference and machine unlearning after training. Our comprehensive review of existing literature highlights ongoing challenges, available tools, and future directions for preserving privacy in LLMs. This work aims to guide the development of more secure and trustworthy AI systems by providing a thorough understanding of privacy preservation methods and their effectiveness in mitigating risks.
arxiv情報
著者 | Michele Miranda,Elena Sofia Ruzzetti,Andrea Santilli,Fabio Massimo Zanzotto,Sébastien Bratières,Emanuele Rodolà |
発行日 | 2025-02-10 15:42:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google