要約
フロンティアAIシステムから生じるリスクを軽減するには、それらのシステムに関する最新かつ信頼できる情報が必要である。フロンティア・システムを開発・配備する組織は、そうした情報への大きなアクセス権を持っている。政府、産業界、市民社会の関係者にセーフティ・クリティカルな情報を報告することで、これらの組織はフロンティア・システムがもたらす新たなリスクや顕在化するリスクの可視性を向上させることができる。このような情報を得ることで、開発者はリスク管理についてより良い情報に基づいた決定を下すことができ、政策立案者はより的を絞った強固な規制インフラを設計することができる。我々は、責任ある報告の主要な特徴を概説し、それを実際に実施するためのメカニズムを提案する。
要約(オリジナル)
Mitigating the risks from frontier AI systems requires up-to-date and reliable information about those systems. Organizations that develop and deploy frontier systems have significant access to such information. By reporting safety-critical information to actors in government, industry, and civil society, these organizations could improve visibility into new and emerging risks posed by frontier systems. Equipped with this information, developers could make better informed decisions on risk management, while policymakers could design more targeted and robust regulatory infrastructure. We outline the key features of responsible reporting and propose mechanisms for implementing them in practice.
arxiv情報
| 著者 | Noam Kolt,Markus Anderljung,Joslyn Barnhart,Asher Brass,Kevin Esvelt,Gillian K. Hadfield,Lennart Heim,Mikel Rodriguez,Jonas B. Sandbrink,Thomas Woodside |
| 発行日 | 2024-04-03 12:18:45+00:00 |
| arxivサイト | arxiv_id(pdf) |