MLLM-Protector: Ensuring MLLM’s Safety without Hurting Performance

要約

マルチモーダル大規模言語モデル (MLLM) の展開により、視覚的な入力を介した悪意のある攻撃に対する脆弱性という独特の脆弱性が生じています。
この論文では、このような攻撃から MLLM を防御するという新たな課題について調査します。
大規模言語モデル (LLM) と比較して、MLLM には追加の画像モダリティが含まれています。
私たちは、画像が安全調整中に考慮されない「外国語」として機能し、MLLM が有害な反応を生み出しやすくしていることを発見しました。
残念ながら、テキストベースの LLM で考慮される離散トークンとは異なり、画像信号の連続的な性質により、調整に大きな課題が生じ、考えられるすべてのシナリオを完全にカバーすることが困難になります。
この脆弱性は、ほとんどの最先端の MLLM が、広範なテキストベースの事前トレーニング コーパスよりもはるかに少ない、限られた画像とテキストのペアで微調整されているという事実によって悪化します。そのため、MLLM は、
安全性の微調整中に本来の能力を発揮します。
これらの課題に取り組むために、私たちは 2 つのサブタスクを解決するプラグアンドプレイ戦略である MLLM-Protector を導入します。1) 軽量の危害検出器を介して有害な反応を特定する、2) 解毒剤を介して有害な反応を無害な反応に変換する。
このアプローチは、MLLM の本来のパフォーマンスを損なうことなく、悪意のある視覚入力によってもたらされるリスクを効果的に軽減します。
私たちの結果は、MLLM-Protector が、MLLM セキュリティのこれまで対処されていなかった側面に対して堅牢なソリューションを提供することを示しています。

要約(オリジナル)

The deployment of multimodal large language models (MLLMs) has brought forth a unique vulnerability: susceptibility to malicious attacks through visual inputs. This paper investigates the novel challenge of defending MLLMs against such attacks. Compared to large language models (LLMs), MLLMs include an additional image modality. We discover that images act as a “foreign language’ that is not considered during safety alignment, making MLLMs more prone to producing harmful responses. Unfortunately, unlike the discrete tokens considered in text-based LLMs, the continuous nature of image signals presents significant alignment challenges, which poses difficulty to thoroughly cover all possible scenarios. This vulnerability is exacerbated by the fact that most state-of-the-art MLLMs are fine-tuned on limited image-text pairs that are much fewer than the extensive text-based pretraining corpus, which makes the MLLMs more prone to catastrophic forgetting of their original abilities during safety fine-tuning. To tackle these challenges, we introduce MLLM-Protector, a plug-and-play strategy that solves two subtasks: 1) identifying harmful responses via a lightweight harm detector, and 2) transforming harmful responses into harmless ones via a detoxifier. This approach effectively mitigates the risks posed by malicious visual inputs without compromising the original performance of MLLMs. Our results demonstrate that MLLM-Protector offers a robust solution to a previously unaddressed aspect of MLLM security.

arxiv情報

著者 Renjie Pi,Tianyang Han,Jianshu Zhang,Yueqi Xie,Rui Pan,Qing Lian,Hanze Dong,Jipeng Zhang,Tong Zhang
発行日 2024-06-17 16:53:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR, cs.CV パーマリンク