要約
最近、強力なラージ言語モデル (LLM) がレコメンダー システム (RS) の進歩を促進するのに役立っています。
しかし、これらのシステムは普及してきましたが、セキュリティ上の脅威に対するその脆弱性はほとんど無視されてきました。
この研究では、LLM を推奨モデルに導入すると、項目のテキスト内容が重視されるため、新たなセキュリティ脆弱性が生じることを明らかにしました。
私たちは、攻撃者がモデルのトレーニング プロセスに直接干渉することなく、テスト段階でテキストの内容を変更するだけでアイテムの露出を大幅に高めることができることを実証します。
さらに、全体的なレコメンデーションのパフォーマンスに影響を与えず、テキストへの変更が微妙であるため、この攻撃は特にステルス性が高く、ユーザーやプラットフォームが検出するのが困難です。
4 つの主流の LLM ベースの推奨モデルにわたる包括的な実験により、私たちのアプローチの優れた有効性とステルス性が実証されました。
私たちの研究により、LLM ベースのレコメンデーション システムにおける重大なセキュリティ ギャップが明らかになり、これらのシステムを保護するための将来の研究への道が開かれます。
要約(オリジナル)
Recently, the powerful large language models (LLMs) have been instrumental in propelling the progress of recommender systems (RS). However, while these systems have flourished, their susceptibility to security threats has been largely overlooked. In this work, we reveal that the introduction of LLMs into recommendation models presents new security vulnerabilities due to their emphasis on the textual content of items. We demonstrate that attackers can significantly boost an item’s exposure by merely altering its textual content during the testing phase, without requiring direct interference with the model’s training process. Additionally, the attack is notably stealthy, as it does not affect the overall recommendation performance and the modifications to the text are subtle, making it difficult for users and platforms to detect. Our comprehensive experiments across four mainstream LLM-based recommendation models demonstrate the superior efficacy and stealthiness of our approach. Our work unveils a significant security gap in LLM-based recommendation systems and paves the way for future research on protecting these systems.
arxiv情報
| 著者 | Jinghao Zhang,Yuting Liu,Qiang Liu,Shu Wu,Guibing Guo,Liang Wang |
| 発行日 | 2024-06-05 17:02:47+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google