On the Security Vulnerabilities of Text-to-SQL Models

要約

自然言語処理 (NLP) アルゴリズムが意図的な攻撃に対して脆弱であることは実証されていますが、そのような弱点がソフトウェア セキュリティの脅威につながるかどうかという問題は十分に調査されていません。
このギャップを埋めるために、データベースへの自然言語インターフェイスを作成するために一般的に使用される Text-to-SQL システムで脆弱性テストを実施しました。
私たちは、6 つの商用アプリケーション内の Text-to-SQL モジュールを操作して悪意のあるコードを生成し、データ侵害やサービス拒否攻撃につながる可能性があることを示しました。
これは、NLP モデルが実際の攻撃ベクトルとして悪用できることを示す最初の実証です。
さらに、4 つのオープンソース言語モデルを使用した実験により、Text-to-SQL システムに対する単純なバックドア攻撃がパフォーマンスに影響を与えることなく 100% の成功率を達成することが検証されました。
この取り組みの目的は、NLP アルゴリズムに関連する潜在的なソフトウェア セキュリティ問題にコミュニティの注目を集め、それらを軽減する方法の探求を奨励することです。

要約(オリジナル)

Although it has been demonstrated that Natural Language Processing (NLP) algorithms are vulnerable to deliberate attacks, the question of whether such weaknesses can lead to software security threats is under-explored. To bridge this gap, we conducted vulnerability tests on Text-to-SQL systems that are commonly used to create natural language interfaces to databases. We showed that the Text-to-SQL modules within six commercial applications can be manipulated to produce malicious code, potentially leading to data breaches and Denial of Service attacks. This is the first demonstration that NLP models can be exploited as attack vectors in the wild. In addition, experiments using four open-source language models verified that straightforward backdoor attacks on Text-to-SQL systems achieve a 100% success rate without affecting their performance. The aim of this work is to draw the community’s attention to potential software security issues associated with NLP algorithms and encourage exploration of methods to mitigate against them.

arxiv情報

著者 Xutan Peng,Yipeng Zhang,Jingfeng Yang,Mark Stevenson
発行日 2023-10-12 16:12:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CR, cs.DB, cs.LG, cs.SE パーマリンク