要約
この論文は、完全に自律的なAIエージェントを開発すべきではないと主張しています。
このポジションを支持して、以前の科学文献と現在の製品マーケティングから構築して、さまざまなAIエージェントレベルを描き、それぞれの倫理的価値を詳述し、潜在的な利益とリスクのトレードオフを文書化します。
私たちの分析は、システムの自律性とともに人々に対するリスクが高まることを明らかにしています。ユーザーがAIエージェントに制御するほど、人々へのリスクが高くなります。
特に、人間の生活に影響を与え、さらなる価値に影響を与える安全リスクが特に懸念されます。
要約(オリジナル)
This paper argues that fully autonomous AI agents should not be developed. In support of this position, we build from prior scientific literature and current product marketing to delineate different AI agent levels and detail the ethical values at play in each, documenting trade-offs in potential benefits and risks. Our analysis reveals that risks to people increase with the autonomy of a system: The more control a user cedes to an AI agent, the more risks to people arise. Particularly concerning are safety risks, which affect human life and impact further values.
arxiv情報
著者 | Margaret Mitchell,Avijit Ghosh,Alexandra Sasha Luccioni,Giada Pistilli |
発行日 | 2025-02-06 17:04:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google