要約
社会的人工知能を設計および対話する方法は、AIがエミュレートまたは占有することを意図している社会関係の役割に依存します。
人間社会では、教師の学生、親子、隣人、兄弟、または雇用主と従業員などの関係は、階層、ケア、取引、交尾などの協同機能を処方または禁止する特定の規範に支配されています。
これらの規範は、各パートナーに適切なものの判断を形作ります。
たとえば、職場の規範により、上司は従業員に注文を行うことができますが、その逆ではなく、階層的および取引の期待を反映することができます。
大規模な言語モデルを搭載したAIエージェントとチャットボットは、アシスタント、メンタルヘルスプロバイダー、チューター、またはロマンチックなパートナーなどの人間の立場に類似した役割を果たすようにますます設計されているため、人間の関係規範が人間に拡張すべきかどうか、どのように拡張すべきかを調べることが不可欠です。
– AIインタラクション。
私たちの分析では、意識的な経験や疲労に対する免疫の欠如など、AIシステムと人間の違いが、関係固有の機能を果たし、対応する規範を順守するAIの能力にどのように影響するかを探ります。
この分析は、哲学者、心理学者、関係科学者、倫理学者、法律専門家、AIの研究者による協力的な努力であり、AIシステムの設計、ユーザー行動、および規制に重要な意味を持ちます。
AIシステムは、特定の社会関係の役割における可用性の向上や一貫性などの大きな利点を提供できることを受け入れますが、不健康な依存関係や非現実的な期待を促進するリスクもあり、人間の人間の関係に波及する可能性があります。
私たちは、人間との相互作用が倫理的で、信頼できる、そして人間の幸福にとって有利であることを保証するために、適切な人間とaiの関係規範を理解し、思慮深く形作る(または実装)することを提案します。
要約(オリジナル)
How we should design and interact with social artificial intelligence depends on the socio-relational role the AI is meant to emulate or occupy. In human society, relationships such as teacher-student, parent-child, neighbors, siblings, or employer-employee are governed by specific norms that prescribe or proscribe cooperative functions including hierarchy, care, transaction, and mating. These norms shape our judgments of what is appropriate for each partner. For example, workplace norms may allow a boss to give orders to an employee, but not vice versa, reflecting hierarchical and transactional expectations. As AI agents and chatbots powered by large language models are increasingly designed to serve roles analogous to human positions – such as assistant, mental health provider, tutor, or romantic partner – it is imperative to examine whether and how human relational norms should extend to human-AI interactions. Our analysis explores how differences between AI systems and humans, such as the absence of conscious experience and immunity to fatigue, may affect an AI’s capacity to fulfill relationship-specific functions and adhere to corresponding norms. This analysis, which is a collaborative effort by philosophers, psychologists, relationship scientists, ethicists, legal experts, and AI researchers, carries important implications for AI systems design, user behavior, and regulation. While we accept that AI systems can offer significant benefits such as increased availability and consistency in certain socio-relational roles, they also risk fostering unhealthy dependencies or unrealistic expectations that could spill over into human-human relationships. We propose that understanding and thoughtfully shaping (or implementing) suitable human-AI relational norms will be crucial for ensuring that human-AI interactions are ethical, trustworthy, and favorable to human well-being.
arxiv情報
著者 | Brian D. Earp,Sebastian Porsdam Mann,Mateo Aboy,Edmond Awad,Monika Betzler,Marietjie Botes,Rachel Calcott,Mina Caraccio,Nick Chater,Mark Coeckelbergh,Mihaela Constantinescu,Hossein Dabbagh,Kate Devlin,Xiaojun Ding,Vilius Dranseika,Jim A. C. Everett,Ruiping Fan,Faisal Feroz,Kathryn B. Francis,Cindy Friedman,Orsolya Friedrich,Iason Gabriel,Ivar Hannikainen,Julie Hellmann,Arasj Khodadade Jahrome,Niranjan S. Janardhanan,Paul Jurcys,Andreas Kappes,Maryam Ali Khan,Gordon Kraft-Todd,Maximilian Kroner Dale,Simon M. Laham,Benjamin Lange,Muriel Leuenberger,Jonathan Lewis,Peng Liu,David M. Lyreskog,Matthijs Maas,John McMillan,Emilian Mihailov,Timo Minssen,Joshua Teperowski Monrad,Kathryn Muyskens,Simon Myers,Sven Nyholm,Alexa M. Owen,Anna Puzio,Christopher Register,Madeline G. Reinecke,Adam Safron,Henry Shevlin,Hayate Shimizu,Peter V. Treit,Cristina Voinea,Karen Yan,Anda Zahiu,Renwen Zhang,Hazem Zohny,Walter Sinnott-Armstrong,Ilina Singh,Julian Savulescu,Margaret S. Clark |
発行日 | 2025-02-17 18:23:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google