The Reality of AI and Biorisk

要約

「AI モデルまたはシステムはバイオリスクを増加させる可能性があるか」という質問に正確かつ自信を持って答えるには、AI モデルまたはシステムがどのようにバイオリスクを増加させる可能性があるかについての健全な理論的脅威モデルと、その脅威モデルをテストするための堅牢な方法の両方が必要です。
この論文は、2 つの AI およびバイオリスク脅威モデルに関する既存の研究の分析を提供します。1) 大規模言語モデル (LLM) を介した情報へのアクセスと計画、2) 新しい生物学的ツールの合成における AI 対応生物学的ツール (BT) の使用
人工物。
AI 関連のバイオリスクに関する既存の研究は初期段階にあり、多くの場合本質的に投機的であるか、方法論的な成熟度と透明性の点で限界があることがわかりました。
入手可能な文献によると、現在の LLM と BT は直ちにリスクをもたらすものではなく、将来のモデルがどのようにバイオリスクを増大させる可能性があるかを理解するための厳密なアプローチを開発するにはさらなる研究が必要です。
最後に、バイオリスクをより正確にターゲットにし、発見の厳密さと妥当性を確保するために経験的研究をどのように拡張できるかについての推奨事項で終わります。

要約(オリジナル)

To accurately and confidently answer the question ‘could an AI model or system increase biorisk’, it is necessary to have both a sound theoretical threat model for how AI models or systems could increase biorisk and a robust method for testing that threat model. This paper provides an analysis of existing available research surrounding two AI and biorisk threat models: 1) access to information and planning via large language models (LLMs), and 2) the use of AI-enabled biological tools (BTs) in synthesizing novel biological artifacts. We find that existing studies around AI-related biorisk are nascent, often speculative in nature, or limited in terms of their methodological maturity and transparency. The available literature suggests that current LLMs and BTs do not pose an immediate risk, and more work is needed to develop rigorous approaches to understanding how future models could increase biorisks. We end with recommendations about how empirical work can be expanded to more precisely target biorisk and ensure rigor and validity of findings.

arxiv情報

著者 Aidan Peppin,Anka Reuel,Stephen Casper,Elliot Jones,Andrew Strait,Usman Anwar,Anurag Agrawal,Sayash Kapoor,Sanmi Koyejo,Marie Pellat,Rishi Bommasani,Nick Frosst,Sara Hooker
発行日 2025-01-02 11:04:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク