Thousands of AI Authors on the Future of AI

要約

この種の調査としては最大規模で、一流の人工知能 (AI) 分野で論文を発表した 2,778 人の研究者が、AI の進歩のペースと高度な AI システムの性質と影響についての予測を提供しました。集計された予測では、少なくとも 50% の確率が得られます。
AI システムは 2028 年までにいくつかのマイルストーンを達成します。これには、支払い処理サイトをゼロから自律的に構築すること、人気ミュージシャンの新曲と区別できない曲を作成すること、大規模な言語モデルを自律的にダウンロードして微調整することなどが含まれます。
科学が中断されずに継続した場合、考えられるすべての作業において補助なしの機械が人間を上回る可能性は、2027 年までに 10%、2047 年までに 50% と推定されます。後者の推定値は、わずか 1 年前に実施した同様の調査で得られた推定値よりも 13 年早いです。
[グレース他、2022]。
しかし、人間のすべての職業が完全に自動化される可能性は、2037 年までに 10% に達し、遅くとも 2116 年には 50% に達すると予測されています (2022 年の調査では 2164 年でした)。
ほとんどの回答者は、AI の進歩の長期的な価値についてかなりの不確実性を表明しました。68.3% が、超人的な AI からは悪い結果よりも良い結果が得られる可能性が高いと考えていますが、これらのネット楽観主義者のうち 48% は、人間のような非常に悪い結果が得られる可能性が少なくとも 5% あると考えています。
絶滅、そしてネット悲観論者の 59% が非常に良い結果に 5% 以上を与えました。
回答者の 38% ~ 51% は、高度な AI が人類滅亡と同じくらいひどい結果をもたらす可能性が少なくとも 10% あると回答しました。
半数以上が、誤った情報、権威主義的な管理、不平等など、AI関連の6つの異なるシナリオについて「重大な」または「極度の」懸念を抱くのは当然だと示唆した。
AIの進歩が早いほうが人類の将来にとって良いのか、遅いほうが良いのかについては意見の相違があった。
しかし、AI システムからの潜在的なリスクを最小限に抑えることを目的とした研究がより優先されるべきであるという点では広く同意されました。

要約(オリジナル)

In the largest survey of its kind, 2,778 researchers who had published in top-tier artificial intelligence (AI) venues gave predictions on the pace of AI progress and the nature and impacts of advanced AI systems The aggregate forecasts give at least a 50% chance of AI systems achieving several milestones by 2028, including autonomously constructing a payment processing site from scratch, creating a song indistinguishable from a new song by a popular musician, and autonomously downloading and fine-tuning a large language model. If science continues undisrupted, the chance of unaided machines outperforming humans in every possible task was estimated at 10% by 2027, and 50% by 2047. The latter estimate is 13 years earlier than that reached in a similar survey we conducted only one year earlier [Grace et al., 2022]. However, the chance of all human occupations becoming fully automatable was forecast to reach 10% by 2037, and 50% as late as 2116 (compared to 2164 in the 2022 survey). Most respondents expressed substantial uncertainty about the long-term value of AI progress: While 68.3% thought good outcomes from superhuman AI are more likely than bad, of these net optimists 48% gave at least a 5% chance of extremely bad outcomes such as human extinction, and 59% of net pessimists gave 5% or more to extremely good outcomes. Between 38% and 51% of respondents gave at least a 10% chance to advanced AI leading to outcomes as bad as human extinction. More than half suggested that ‘substantial’ or ‘extreme’ concern is warranted about six different AI-related scenarios, including misinformation, authoritarian control, and inequality. There was disagreement about whether faster or slower AI progress would be better for the future of humanity. However, there was broad agreement that research aimed at minimizing potential risks from AI systems ought to be prioritized more.

arxiv情報

著者 Katja Grace,Harlan Stewart,Julia Fabienne Sandkühler,Stephen Thomas,Ben Weinstein-Raun,Jan Brauner
発行日 2024-01-05 14:53:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク