要約
大規模言語モデル (LLM) をソーシャル ロボット工学に統合すると、独特の倫理的課題と社会的影響が生じます。
この研究は、これら 2 つのテクノロジーを組み合わせて設計および開発する際に生じる倫理的考慮事項を特定するために開始されました。
ソーシャル ロボット工学に LLM を使用すると、自然言語によるオープンドメインの対話が可能になるなどの利点が得られる可能性があります。
ただし、これら 2 つのテクノロジーが交差することにより、誤った情報、非言語的な合図、感情の混乱、偏見に関連する倫理的懸念も生じます。
ロボットの物理的な社会的具現化は、社会的認識やコミュニケーションに対する物理的具現化の影響により、幻覚や誤った情報など、LLM ベースのソーシャル AI に関連する倫理的危険を悪化させる可能性があるため、複雑さを増します。
これらの課題に対処するために、この研究では実証的なデザイン正義に基づいた方法論を採用し、定性的な共同設計と相互作用研究を通じて社会技術的倫理的考慮事項を特定することに焦点を当てています。
研究の目的は、LLM のインターフェースとしての人型ソーシャル ロボットの共同設計および相互作用のプロセスに関連する倫理的考慮事項を特定し、設計の文脈でデザイン ジャスティス手法をどのように使用できるかを評価することです。
LLM ベースのソーシャル ロボティクス。
この調査結果は、インタラクション、共同設計、サービス条件、関係という 4 つの概念的な側面で生じる倫理的考慮事項のマッピングを明らかにし、LLM とソーシャル ロボット工学の交差点でデザイン ジャスティス アプローチを経験的にどのように使用できるかを評価します。
要約(オリジナル)
The integration of Large Language Models (LLMs) in social robotics presents a unique set of ethical challenges and social impacts. This research is set out to identify ethical considerations that arise in the design and development of these two technologies in combination. Using LLMs for social robotics may provide benefits, such as enabling natural language open-domain dialogues. However, the intersection of these two technologies also gives rise to ethical concerns related to misinformation, non-verbal cues, emotional disruption, and biases. The robot’s physical social embodiment adds complexity, as ethical hazards associated with LLM-based Social AI, such as hallucinations and misinformation, can be exacerbated due to the effects of physical embodiment on social perception and communication. To address these challenges, this study employs an empirical design justice-based methodology, focusing on identifying socio-technical ethical considerations through a qualitative co-design and interaction study. The purpose of the study is to identify ethical considerations relevant to the process of co-design of, and interaction with a humanoid social robot as the interface of a LLM, and to evaluate how a design justice methodology can be used in the context of designing LLMs-based social robotics. The findings reveal a mapping of ethical considerations arising in four conceptual dimensions: interaction, co-design, terms of service and relationship and evaluates how a design justice approach can be used empirically in the intersection of LLMs and social robotics.
arxiv情報
著者 | Alva Markelius |
発行日 | 2024-06-10 15:53:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google