要約
AI の安全性は、AI コミュニティ内外の多くの科学者にとって重要な最前線の関心事となっています。
人間の存在に関する実存的リスクからディープフェイクや機械学習システムのバイアスに至るまで、当面および長期的に予想されるリスクが数多く存在します [1-5]。
このペーパーでは、AI の安全性に関する懸念の全範囲と計り知れない複雑さを、重要な領域における AI のイノベーションを減らすことなく AI の安全性と信頼性を向上させる短期的な可能性を秘めた、重要だが扱いやすい進歩の 3 つの機会からなる 3 部作にまとめます。
この観点から、生物医学における重要な ML アプリケーションですでに概念実証を行っているいくつかのケーススタディに基づいて、このビジョンについて説明します。
要約(オリジナル)
AI Safety has become a vital front-line concern of many scientists within and outside the AI community. There are many immediate and long term anticipated risks that range from existential risk to human existence to deep fakes and bias in machine learning systems [1-5]. In this paper, we reduce the full scope and immense complexity of AI safety concerns to a trilogy of three important but tractable opportunities for advances that have the short-term potential to improve AI safety and reliability without reducing AI innovation in critical domains. In this perspective, we discuss this vision based on several case studies that already produced proofs of concept in critical ML applications in biomedical science.
arxiv情報
| 著者 | Simon Kasif |
| 発行日 | 2024-10-09 14:43:06+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google