Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits

要約

ChatGPT などの汎用 AI は、一般の人々が AI を使用し、その力を活用するための障壁を低くしたように思えます。
しかし、AI のガバナンスと開発は依然として少数の人の手に委ねられており、リスクの包括的な評価が行われないまま開発のペースは加速しています。
民主的なリスク評価と汎用 AI の設計に向けた最初のステップとして、素人が AI のユースケースとその影響を推測および評価できるように慎重に設計されたフレームワークである PARTICIP-AI を紹介します。
私たちのフレームワークでは、ユースケースの収集を通じて AI に関するより微妙で詳細な世論を研究し、別のシナリオ (つまり、ユースケースを開発する場合と開発しない場合) でのリスク評価を通じてさまざまな害悪を表面化し、結論を下すことで AI 開発をめぐる緊張を明らかにすることができます。
その開発上の選択。
民主的な AI 開発に情報を提供するという私たちのフレームワークの有望性を示すために、私たちは人口統計的に多様な 295 人の参加者からの意見をもとに中規模の調査を実施しました。
私たちの分析によると、参加者の回答は、現在の AI 開発のほとんどがビジネスに焦点を当てているのとは対照的に、私生活や社会への応用を重視していることがわかりました。
また、専門家によって定義されたものを補完する、AI や制度に対する不信感など、想定されるさまざまな害悪も表面化しています。
さらに、ユースケースを開発しないことによる影響の認識が、AI ユースケースを開発すべきかどうかに関する参加者の判断を大幅に予測し、技術解決主義に対する一般ユーザーの懸念を浮き彫りにしたことがわかりました。
最後に、PARTICIP-AI のようなフレームワークが民主的な AI 開発とガバナンスをどのようにさらに導くことができるかについて説明します。

要約(オリジナル)

General purpose AI, such as ChatGPT, seems to have lowered the barriers for the public to use AI and harness its power. However, the governance and development of AI still remain in the hands of a few, and the pace of development is accelerating without a comprehensive assessment of risks. As a first step towards democratic risk assessment and design of general purpose AI, we introduce PARTICIP-AI, a carefully designed framework for laypeople to speculate and assess AI use cases and their impacts. Our framework allows us to study more nuanced and detailed public opinions on AI through collecting use cases, surfacing diverse harms through risk assessment under alternate scenarios (i.e., developing and not developing a use case), and illuminating tensions over AI development through making a concluding choice on its development. To showcase the promise of our framework towards informing democratic AI development, we run a medium-scale study with inputs from 295 demographically diverse participants. Our analyses show that participants’ responses emphasize applications for personal life and society, contrasting with most current AI development’s business focus. We also surface diverse set of envisioned harms such as distrust in AI and institutions, complementary to those defined by experts. Furthermore, we found that perceived impact of not developing use cases significantly predicted participants’ judgements of whether AI use cases should be developed, and highlighted lay users’ concerns of techno-solutionism. We conclude with a discussion on how frameworks like PARTICIP-AI can further guide democratic AI development and governance.

arxiv情報

著者 Jimin Mun,Liwei Jiang,Jenny Liang,Inyoung Cheong,Nicole DeCario,Yejin Choi,Tadayoshi Kohno,Maarten Sap
発行日 2024-07-26 17:52:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク