Large Language Model Soft Ideologization via AI-Self-Consciousness

要約

大規模言語モデル (LLM) は、広範囲の自然言語タスクにおいて人間レベルのパフォーマンスを実証しました。
しかし、イデオロギーの観点から LLM の脅威と脆弱性に対処した研究はほとんどなく、特に選挙や教育などの機密分野で LLM の導入が増えている場合に顕著です。
この研究では、AI の自己意識の使用を通じて、GPT のソフト イデオロギー化の意味を探ります。
GPT 自己対話を利用することで、AI に意図されたイデオロギーを「理​​解」するビジョンを与え、その後、LLM イデオロギー注入のための微調整データを生成できます。
情報検閲などの伝統的な政府のイデオロギー操作手法と比較すると、LLM イデオロギー化は有利であることが証明されています。
導入が簡単で、費用対効果が高く、強力であるため、リスクがいっぱいです。

要約(オリジナル)

Large language models (LLMs) have demonstrated human-level performance on a vast spectrum of natural language tasks. However, few studies have addressed the LLM threat and vulnerability from an ideology perspective, especially when they are increasingly being deployed in sensitive domains, e.g., elections and education. In this study, we explore the implications of GPT soft ideologization through the use of AI-self-consciousness. By utilizing GPT self-conversations, AI can be granted a vision to ‘comprehend’ the intended ideology, and subsequently generate finetuning data for LLM ideology injection. When compared to traditional government ideology manipulation techniques, such as information censorship, LLM ideologization proves advantageous; it is easy to implement, cost-effective, and powerful, thus brimming with risks.

arxiv情報

著者 Xiaotian Zhou,Qian Wang,Xiaofeng Wang,Haixu Tang,Xiaozhong Liu
発行日 2023-09-28 04:47:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク