要約
新たな AI テクノロジーの悪影響を予測することは、特に開発の初期段階では困難です。
このような予測に対する十分に研究されていないアプローチは、LLM を使用してこのプロセスを強化し、ガイドすることです。
生成されたテキストのバイアスを考慮した LLM と評価指標の進歩にもかかわらず、これらのモデルが予測タスクでどの程度うまく機能するかは不明です。
具体的には、AI への影響を予測するために LLM を使用すると、これらのモデルが生成できる悪影響のカテゴリーの質と範囲について疑問が生じます。
このペーパーでは、新興テクノロジーの規範的評価が豊富に含まれる多様なデータソースであるニュースメディアを活用して、比較のベースラインとして機能する影響の分類を策定します。
世界中の何百ものオンライン ニュース ドメインで公開された何千ものニュース記事をコンピューターで分析することにより、AI の影響に関する 10 のカテゴリで構成される分類法を開発しました。
次に、このベースラインのサンプルを使用して、命令ベース (GPT-4 および Mistral-7B-Instruct) と微調整された完了モデル (Mistral-7B および GPT-3) の両方を評価します。
ニュースメディアからの影響に合わせて微調整されたMistral-7Bを使用して生成された影響は、GPT-4などの大規模モデルを使用して生成された影響と定性的に同等である傾向があることがわかりました。
さらに、これらの LLM は、ニュースメディアで特定されたマイナスの影響の分類を主に反映した影響を生成することがわかりました。ただし、指示ベースのモデルによって生成された影響には、微調整されたモデルと比較して、特定のカテゴリの影響の生成にギャップがありました。
この研究は、最先端のLLMを影響の予測に使用した場合の潜在的な偏りを強調し、より小規模なLLMをニュースメディアに反映されているような多様な影響と連携させて、そのような影響をより適切に反映することの利点を実証しています。
予想練習。
要約(オリジナル)
Anticipating the negative impacts of emerging AI technologies is a challenge, especially in the early stages of development. An understudied approach to such anticipation is the use of LLMs to enhance and guide this process. Despite advancements in LLMs and evaluation metrics to account for biases in generated text, it is unclear how well these models perform in anticipatory tasks. Specifically, the use of LLMs to anticipate AI impacts raises questions about the quality and range of categories of negative impacts these models are capable of generating. In this paper we leverage news media, a diverse data source that is rich with normative assessments of emerging technologies, to formulate a taxonomy of impacts to act as a baseline for comparing against. By computationally analyzing thousands of news articles published by hundreds of online news domains around the world, we develop a taxonomy consisting of ten categories of AI impacts. We then evaluate both instruction-based (GPT-4 and Mistral-7B-Instruct) and fine-tuned completion models (Mistral-7B and GPT-3) using a sample from this baseline. We find that the generated impacts using Mistral-7B, fine-tuned on impacts from the news media, tend to be qualitatively on par with impacts generated using a larger scale model such as GPT-4. Moreover, we find that these LLMs generate impacts that largely reflect the taxonomy of negative impacts identified in the news media, however the impacts produced by instruction-based models had gaps in the production of certain categories of impacts in comparison to fine-tuned models. This research highlights a potential bias in state-of-the-art LLMs when used for anticipating impacts and demonstrates the advantages of aligning smaller LLMs with a diverse range of impacts, such as those reflected in the news media, to better reflect such impacts during anticipatory exercises.
arxiv情報
著者 | Mowafak Allaham,Nicholas Diakopoulos |
発行日 | 2024-01-31 17:43:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google