On the Consideration of AI Openness: Can Good Intent Be Abused?

要約

オープン性は科学の進歩にとって非常に重要です。
特に最近の AI の急速な進歩は、さまざまなオープンソースのモデル、データセット、ライブラリによってのみ可能になっています。
ただし、このオープンさは、テクノロジーが社会的に有害な目的に自由に使用できることも意味します。
オープンソースのモデルやデータセットは悪意のある目的に使用される可能性がありますか?
もしそうなら、そのような目標にテクノロジーを適応させることはどれほど簡単でしょうか?
ここでは、個人の決定が社会に重大な影響を与える可能性がある法的領域におけるケーススタディを実施します。
この目的を達成するために、韓国の 200 の判例に基づいた、犯罪行為に関する 200 の質問例とそれに対応する回答で構成されるデータセットである EVE を構築します。
私たちは、広く受け入れられているオープンソース LLM は、最初は非倫理的な質問への回答を拒否しますが、EVE を使用して簡単に調整して、犯罪行為に関する非倫理的で有益な回答を提供できることがわかりました。
これは、オープンソース テクノロジは科学の進歩に貢献するものの、潜在的な悪意のある使用例を軽減するためにある程度の注意を払う必要があることを意味します。
警告: この文書には、非倫理的であると思われる内容が含まれています。

要約(オリジナル)

Openness is critical for the advancement of science. In particular, recent rapid progress in AI has been made possible only by various open-source models, datasets, and libraries. However, this openness also means that technologies can be freely used for socially harmful purposes. Can open-source models or datasets be used for malicious purposes? If so, how easy is it to adapt technology for such goals? Here, we conduct a case study in the legal domain, a realm where individual decisions can have profound social consequences. To this end, we build EVE, a dataset consisting of 200 examples of questions and corresponding answers about criminal activities based on 200 Korean precedents. We found that a widely accepted open-source LLM, which initially refuses to answer unethical questions, can be easily tuned with EVE to provide unethical and informative answers about criminal activities. This implies that although open-source technologies contribute to scientific progress, some care must be taken to mitigate possible malicious use cases. Warning: This paper contains contents that some may find unethical.

arxiv情報

著者 Yeeun Kim,Eunkyung Choi,Hyunjun Kim,Hongseok Oh,Hyunseo Shin,Wonseok Hwang
発行日 2024-03-11 09:24:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク