Identifying, Evaluating, and Mitigating Risks of AI Thought Partnerships

要約

人工知能(AI)システムは、歴史的に、狭く定義されたタスクを実行するツールとして使用されてきました。
しかし、AIの最近の進歩は、問題の概念化からブレインストーミングソリューションまで、複雑な推論で真に人間と協力する新しいクラスのモデルの可能性を解き放ちました。
このようなAIは、パートナーが斬新な形式のコラボレーションと拡張認知を有効にすることを可能にしましたが、それらはまた、典型的なAIツールとエージェントのリスクを超えて大きなリスクをもたらします。
この解説では、共同認知(RISC)から生じるリアルタイム、個人、社会的リスクなど、複数のレベルの分析でリスクを特定する新しいフレームワークを通じて、AI思想パートナーのリスクを体系的に特定します。
このフレームワークを活用して、リスク評価のために具体的なメトリックを提案し、最終的に開発者と政策立案者に特定の緩和戦略を提案します。
AIがパートナーが増殖し続けているため、これらの戦略は大きな害を防ぎ、人間が生産的な思考パートナーシップから積極的に利益を得ることを保証するのに役立ちます。

要約(オリジナル)

Artificial Intelligence (AI) systems have historically been used as tools that execute narrowly defined tasks. Yet recent advances in AI have unlocked possibilities for a new class of models that genuinely collaborate with humans in complex reasoning, from conceptualizing problems to brainstorming solutions. Such AI thought partners enable novel forms of collaboration and extended cognition, yet they also pose major risks-including and beyond risks of typical AI tools and agents. In this commentary, we systematically identify risks of AI thought partners through a novel framework that identifies risks at multiple levels of analysis, including Real-time, Individual, and Societal risks arising from collaborative cognition (RISc). We leverage this framework to propose concrete metrics for risk evaluation, and finally suggest specific mitigation strategies for developers and policymakers. As AI thought partners continue to proliferate, these strategies can help prevent major harms and ensure that humans actively benefit from productive thought partnerships.

arxiv情報

著者 Kerem Oktar,Katherine M. Collins,Jose Hernandez-Orallo,Diane Coyle,Stephen Cave,Adrian Weller,Ilia Sucholutsky
発行日 2025-05-22 16:58:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク