Visibility into AI Agents

要約

商業、科学、政府、個人の活動を AI エージェント (限られた監督下で複雑な目標を追求できるシステム) に委任することが増えると、既存の社会的リスクが悪化するとともに、新たなリスクが生じる可能性があります。
これらのリスクを理解して軽減するには、既存のガバナンス構造を批判的に評価し、必要に応じてこれらの構造を修正および適応させ、主要な利害関係者の説明責任を確保することが含まれます。
特定の AI エージェントがどこで、なぜ、どのように、誰によって使用されるかに関する情報 (可視性と呼ばれます) は、これらの目的にとって重要です。
このペーパーでは、AI エージェントの可視性を高めるための 3 つのカテゴリの対策 (エージェント識別子、リアルタイム監視、アクティビティ ログ) を評価します。
それぞれについて、侵入性と有益性の点で異なる実装の可能性を概説します。
私たちは、ハードウェアおよびソフトウェアのサービスプロバイダーを含むサプライチェーン内のさまざまな関係者を考慮しながら、集中型から分散型の展開コンテキストの範囲にわたって対策がどのように適用されるかを分析します。
最後に、プライバシーと権力の集中に対する対策の影響について説明します。
対策を理解し、その悪影響を軽減するためのさらなる取り組みは、AI エージェントのガバナンスの基盤を構築するのに役立ちます。

要約(オリジナル)

Increased delegation of commercial, scientific, governmental, and personal activities to AI agents — systems capable of pursuing complex goals with limited supervision — may exacerbate existing societal risks and introduce new risks. Understanding and mitigating these risks involves critically evaluating existing governance structures, revising and adapting these structures where needed, and ensuring accountability of key stakeholders. Information about where, why, how, and by whom certain AI agents are used, which we refer to as visibility, is critical to these objectives. In this paper, we assess three categories of measures to increase visibility into AI agents: agent identifiers, real-time monitoring, and activity logging. For each, we outline potential implementations that vary in intrusiveness and informativeness. We analyze how the measures apply across a spectrum of centralized through decentralized deployment contexts, accounting for various actors in the supply chain including hardware and software service providers. Finally, we discuss the implications of our measures for privacy and concentration of power. Further work into understanding the measures and mitigating their negative impacts can help to build a foundation for the governance of AI agents.

arxiv情報

著者 Alan Chan,Carson Ezell,Max Kaufmann,Kevin Wei,Lewis Hammond,Herbie Bradley,Emma Bluemke,Nitarshan Rajkumar,David Krueger,Noam Kolt,Lennart Heim,Markus Anderljung
発行日 2024-04-17 15:45:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク