要約
私たちは、AI の期待を妨げ、AI リスクを引き起こす AI2050 の「困難な問題」を調査します。(1) システムの一般的な機能の開発。
(2) AI システムとそのトレーニング プロセスのパフォーマンスを保証する。
(3) システムの目標と人間の目標を一致させる。
(4) 実生活における AI の優れた応用を可能にする。
(5) 経済的混乱に対処する。
(6) 全員の参加を確保する。
(7) 同時に社会的責任のある配備を確保する。
(8) AI が引き起こす地政学的混乱に対処する。
(9) テクノロジーの健全なガバナンスを促進する。
(10) AI の時代に生きる人間の哲学的混乱を管理する。
それぞれの問題について、その分野の概要を示し、最近の重要な取り組みを特定し、今後の解決策を提案します。
[注: この論文は 2023 年 1 月までの文献をレビューしています。]
要約(オリジナル)
We explore the AI2050 ‘hard problems’ that block the promise of AI and cause AI risks: (1) developing general capabilities of the systems; (2) assuring the performance of AI systems and their training processes; (3) aligning system goals with human goals; (4) enabling great applications of AI in real life; (5) addressing economic disruptions; (6) ensuring the participation of all; (7) at the same time ensuring socially responsible deployment; (8) addressing any geopolitical disruptions that AI causes; (9) promoting sound governance of the technology; and (10) managing the philosophical disruptions for humans living in the age of AI. For each problem, we outline the area, identify significant recent work, and suggest ways forward. [Note: this paper reviews literature through January 2023.]
arxiv情報
著者 | Gavin Leech,Simson Garfinkel,Misha Yagudin,Alexander Briand,Aleksandr Zhuravlev |
発行日 | 2024-04-19 10:38:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google