要約
AI時代の情報と複雑さの大洪水によって推進される社会的認知過負荷は、人間の幸福と社会的回復力に重大な課題をもたらします。
このペーパーでは、認知過剰を緩和することは、現在の生活を改善するためだけでなく、実存的な脅威を含む高度なAIの潜在的なリスクをナビゲートするための重要な前提条件でもあると主張しています。
情報の拡散、アルゴリズム操作、自動化不安、規制緩和、意味の侵食など、さまざまなメカニズムを通じてAIがどのように認知的過負荷を悪化させるかを調べます。
この論文は、認知的過負荷に集中するためにAIの安全討論を再構成し、短期的な害と長期的なリスクとの橋渡しとしての役割を強調しています。
結論は、潜在的な制度的適応、研究の方向性、および人間とAIの調整に関する過負荷控えめな視点を採用することから生じる政策上の考慮事項について議論し、決定的な解決策を規定するのではなく、将来の探求のための経路を示唆しています。
要約(オリジナル)
Societal cognitive overload, driven by the deluge of information and complexity in the AI age, poses a critical challenge to human well-being and societal resilience. This paper argues that mitigating cognitive overload is not only essential for improving present-day life but also a crucial prerequisite for navigating the potential risks of advanced AI, including existential threats. We examine how AI exacerbates cognitive overload through various mechanisms, including information proliferation, algorithmic manipulation, automation anxieties, deregulation, and the erosion of meaning. The paper reframes the AI safety debate to center on cognitive overload, highlighting its role as a bridge between near-term harms and long-term risks. It concludes by discussing potential institutional adaptations, research directions, and policy considerations that arise from adopting an overload-resilient perspective on human-AI alignment, suggesting pathways for future exploration rather than prescribing definitive solutions.
arxiv情報
著者 | Salem Lahlou |
発行日 | 2025-04-28 17:06:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google