Trading Devil Final: Backdoor attack via Stock market and Bayesian Optimization

要約

生成人工知能の出現以来、あらゆる企業や研究者は、商用か否かにかかわらず、独自の生成モデルの開発を急いでいます。
これらの強力な新しいツールのユーザーが多数いることを考えると、LLM (大規模言語モデル) が学習するときに何が起こるかを根本から説明する本質的に検証可能な方法は現時点ではありません。
たとえば、自動音声認識システムに基づくものでは、高速かつ効率的な結果を生成するために、Web 全体から収集された膨大で天文学的な量のデータに依存する必要があります。この記事では、MarketBackFinal 2.0 と呼ばれるバックドア攻撃を開発します。
音響データポイズニングに対処するため、MarketBackFinal 2.0 は主に最新の株式市場モデルに基づいています。
LLM に依存する可能性のある音声ベースのトランスフォーマーの潜在的な脆弱性を示すため。

要約(オリジナル)

Since the advent of generative artificial intelligence, every company and researcher has been rushing to develop their own generative models, whether commercial or not. Given the large number of users of these powerful new tools, there is currently no intrinsically verifiable way to explain from the ground up what happens when LLMs (large language models) learn. For example, those based on automatic speech recognition systems, which have to rely on huge and astronomical amounts of data collected from all over the web to produce fast and efficient results, In this article, we develop a backdoor attack called MarketBackFinal 2.0, based on acoustic data poisoning, MarketBackFinal 2.0 is mainly based on modern stock market models. In order to show the possible vulnerabilities of speech-based transformers that may rely on LLMs.

arxiv情報

著者 Orson Mengara
発行日 2024-09-12 16:22:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, q-fin.CP, q-fin.PR, q-fin.ST パーマリンク