From tools to thieves: Measuring and understanding public perceptions of AI through crowdsourced metaphors

要約

人工知能(AI)ベースのテクノロジーの増加する有病率にどのように対応しましたか?
全国的に代表的な米国のサンプルから12か月にわたって12,000を超える回答を収集することにより、AIの国民の認識を調査します。
参加者は、AIのメンタルモデルを反映したオープンエンドのメタファーを提供しました。これは、より多くのニュアンスを獲得することにより、従来の自己申告による対策の限界を克服する方法論です。
定量的クラスタリングと定性的コーディングを組み合わせた混合メソッドアプローチを使用して、AIの一般的な理解を形成する20の支配的なメタファーを特定します。
これらのメタファーを体系的に分析するために、言語モデリング(LM)ベースの手法を統合するスケーラブルなフレームワークを提示して、一般的な知覚の重要な次元を測定します:擬人化(人間のような性質の帰属)、暖かさ、競争力。
アメリカ人は一般的にAIを温かく有能であると考えており、過去1年間、AIの人間性と暖かさの認識が大幅に増加していることがわかります($ +34 \%、r = 0.80、p <0.01; +41 \%、r = 0.62、p <0.05 $)。 これらの暗黙の認識は、特定された支配的な比phorとともに、AI($ r^2 = 0.21、0.18、p <0.001 $)に対する信頼と意欲を強く予測します。 さらに、女性、高齢者、擬人化に対する有色人種の傾向が高く、信頼と養子縁組における人口統計的格差に光を当てるなど、比phorと暗黙の認識の体系的な人口統計上の違いを明らかにします。 進化する公共の態度を追跡するためのデータセットとフレームワークに加えて、包括的かつ責任あるAI開発に比phorを使用することについての実用的な洞察を提供します。

要約(オリジナル)

How has the public responded to the increasing prevalence of artificial intelligence (AI)-based technologies? We investigate public perceptions of AI by collecting over 12,000 responses over 12 months from a nationally representative U.S. sample. Participants provided open-ended metaphors reflecting their mental models of AI, a methodology that overcomes the limitations of traditional self-reported measures by capturing more nuance. Using a mixed-methods approach combining quantitative clustering and qualitative coding, we identify 20 dominant metaphors shaping public understanding of AI. To analyze these metaphors systematically, we present a scalable framework integrating language modeling (LM)-based techniques to measure key dimensions of public perception: anthropomorphism (attribution of human-like qualities), warmth, and competence. We find that Americans generally view AI as warm and competent, and that over the past year, perceptions of AI’s human-likeness and warmth have significantly increased ($+34\%, r = 0.80, p < 0.01; +41\%, r = 0.62, p < 0.05$). These implicit perceptions, along with the identified dominant metaphors, strongly predict trust in and willingness to adopt AI ($r^2 = 0.21, 0.18, p < 0.001$). Moreover, we uncover systematic demographic differences in metaphors and implicit perceptions, such as the higher propensity of women, older individuals, and people of color to anthropomorphize AI, which shed light on demographic disparities in trust and adoption. In addition to our dataset and framework for tracking evolving public attitudes, we provide actionable insights on using metaphors for inclusive and responsible AI development.

arxiv情報

著者 Myra Cheng,Angela Y. Lee,Kristina Rapuano,Kate Niederhoffer,Alex Liebscher,Jeffrey Hancock
発行日 2025-06-17 14:46:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC パーマリンク