Artificial Influence: An Analysis Of AI-Driven Persuasion

要約

説得は、人間であることの重要な側面であり、ビジネス、政治、およびその他の取り組みの中心です。
人工知能 (AI) の進歩により、人間を説得して製品を購入したり、ビデオを見たり、検索結果をクリックしたりできる AI システムが生まれました。
説得するように明示的に設計されていないシステムでも、実際にはそうする場合があります。
将来的には、ますます擬人化された AI システムがユーザーと継続的な関係を築き、説得力を高める可能性があります。
この論文では、説得力のある AI システムの不確かな未来を調査します。
AI が説得力のバランスを変え、パーソナライズされた説得を大規模に展開できるようにし、誤った情報キャンペーンを強化し、人間が自分の言説を形作る方法を変えることで、AI が説得に対する私たちの関係や見方を定性的に変える方法を調べます。
AI主導の説得が人間主導の説得とどのように異なるかを検討します。
私たちは、ユビキタスで非常に説得力のある AI システムが私たちの情報環境を大幅に変え、私たち自身の未来を人間がコントロールできなくなることにつながる可能性があると警告しています。
それに応じて、AI主導の説得に対するいくつかの潜在的な対応を調べます。禁止、AIエージェントの特定、真実のAI、および法的救済です。
これらの解決策はどれも完全なものではなく、個人や政府は、説得力のある AI の最も有害な影響を防ぐために積極的な措置を講じる必要があると結論付けています。

要約(オリジナル)

Persuasion is a key aspect of what it means to be human, and is central to business, politics, and other endeavors. Advancements in artificial intelligence (AI) have produced AI systems that are capable of persuading humans to buy products, watch videos, click on search results, and more. Even systems that are not explicitly designed to persuade may do so in practice. In the future, increasingly anthropomorphic AI systems may form ongoing relationships with users, increasing their persuasive power. This paper investigates the uncertain future of persuasive AI systems. We examine ways that AI could qualitatively alter our relationship to and views regarding persuasion by shifting the balance of persuasive power, allowing personalized persuasion to be deployed at scale, powering misinformation campaigns, and changing the way humans can shape their own discourse. We consider ways AI-driven persuasion could differ from human-driven persuasion. We warn that ubiquitous highlypersuasive AI systems could alter our information environment so significantly so as to contribute to a loss of human control of our own future. In response, we examine several potential responses to AI-driven persuasion: prohibition, identification of AI agents, truthful AI, and legal remedies. We conclude that none of these solutions will be airtight, and that individuals and governments will need to take active steps to guard against the most pernicious effects of persuasive AI.

arxiv情報

著者 Matthew Burtell,Thomas Woodside
発行日 2023-03-15 16:05:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG パーマリンク