要約
最近の研究では、現在または近い将来、意識を持った AI システムを構築できる可能性があることが示唆されています。
意識のある AI システムは間違いなく道徳的考慮に値するものであり、多数の意識のあるシステムが作成され、苦しめられる可能性があるかもしれません。
さらに、AI システムや AI によって生成されたキャラクターは意識があるかのような印象をますます与え、その道徳的地位についての議論につながる可能性があります。
AI 研究に携わる組織は、研究と展開の選択、および意識に関する公衆のコミュニケーションを導くための原則とポリシーを確立する必要があります。
組織が AI 意識そのものを研究しないことを選択した場合でも、高度な AI システムを開発する組織は意識を持った実体を誤って作成してしまう危険性があるため、ポリシーを整備する必要があります。
この可能性に対処するには、責任ある調査と導入の実践が不可欠です。
私たちは責任ある研究のための 5 つの原則を提案し、研究組織はこれらの原則に沿って自主的かつ公的に約束すべきであると主張します。
私たちの原則は、研究の目的と手順、知識の共有と公共のコミュニケーションに関係しています。
要約(オリジナル)
Recent research suggests that it may be possible to build conscious AI systems now or in the near future. Conscious AI systems would arguably deserve moral consideration, and it may be the case that large numbers of conscious systems could be created and caused to suffer. Furthermore, AI systems or AI-generated characters may increasingly give the impression of being conscious, leading to debate about their moral status. Organisations involved in AI research must establish principles and policies to guide research and deployment choices and public communication concerning consciousness. Even if an organisation chooses not to study AI consciousness as such, it will still need policies in place, as those developing advanced AI systems risk inadvertently creating conscious entities. Responsible research and deployment practices are essential to address this possibility. We propose five principles for responsible research and argue that research organisations should make voluntary, public commitments to principles on these lines. Our principles concern research objectives and procedures, knowledge sharing and public communications.
arxiv情報
著者 | Patrick Butlin,Theodoros Lappas |
発行日 | 2025-01-13 12:59:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google