要約
私たちは、質の高い情報開示を欠いた低品質の AI アドバイザーが、人々が嘘を見破るのを助けているように見えながら、テキストベースの嘘を広めるのにどのように貢献できるのかを調査します。
私たちの実験の参加者は、客観的な真実に関するトピックに関する欺瞞的なソーシャルメディアのやりとりを模倣したゲーム番組の記録を評価することで、真実と嘘を識別します。
情報開示のない低品質のアドバイザーに依存すると、参加者の真実発見率は自身の能力を下回ることがわかりましたが、AIの真の有効性が明らかになると、その能力は回復しました。
逆に、質の高いアドバイザーは、開示の有無にかかわらず、真実の検出を強化します。
AI の機能に対する参加者の期待が、不透明で質の低いアドバイザーへの過度の依存につながっていることがわかりました。
要約(オリジナル)
We investigate how low-quality AI advisors, lacking quality disclosures, can help spread text-based lies while seeming to help people detect lies. Participants in our experiment discern truth from lies by evaluating transcripts from a game show that mimicked deceptive social media exchanges on topics with objective truths. We find that when relying on low-quality advisors without disclosures, participants’ truth-detection rates fall below their own abilities, which recovered once the AI’s true effectiveness was revealed. Conversely, high-quality advisor enhances truth detection, regardless of disclosure. We discover that participants’ expectations about AI capabilities contribute to their undue reliance on opaque, low-quality advisors.
arxiv情報
著者 | Haimanti Bhattacharya,Subhasish Dugar,Sanchaita Hazra,Bodhisattwa Prasad Majumder |
発行日 | 2024-10-30 15:58:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google