要約
ChatGPT などの生成人工知能 (GAI) と大規模言語モデル (LLM) の出現により、ソフトウェアおよびロボット開発における長年の願望の実現が可能になりました。
しかし、このテクノロジーは新たな倫理的課題をもたらしました。
これらの課題は、マルチロボット システムなどの他の機械学習システムでの LLM の適用によってさらに悪化します。
研究の目的は、マルチロボット システムにおける LLM の適用から生じる新たな倫理問題を調査することでした。
GPT エージェントの行動における倫理的問題の展開 (倫理的懸念の審議) が観察され、GPT の出力が人間の専門家と比較されました。
この記事は、マルチロボット システムの倫理的開発モデルも前進させます。
倫理的懸念事項を収集するための 3 つのワークショップでは、定性的ワークショップベースの手法が採用されました。人間の専門家によるワークショップが 2 つ (参加者 N=16)、GPT エージェントベースのワークショップが 1 つ (N=7 エージェント、6 人のエージェントと 1 人の裁判官からなる 2 つのチーム)
)。
テーマ分析を使用して定性データを分析しました。
その結果、人間が生み出した倫理的懸念と GPT に基づいた倫理的懸念の違いが明らかになりました。
人間の専門家は、逸脱、データプライバシー、偏見、非倫理的な企業行為に関連する新しいテーマをより重視しました。
GPT エージェントは、既存の AI 倫理ガイドラインに存在する懸念を強調しました。
この研究は、コンテキスト固有の AI 倫理と GPT 適用に関する知識体系の増大に貢献します。
これは、人間の専門家の思考と LLM の成果との間のギャップを実証するとともに、新しいテクノロジーで浮上する新たな倫理的懸念を強調します。
要約(オリジナル)
The emergence of generative artificial intelligence (GAI) and large language models (LLMs) such ChatGPT has enabled the realization of long-harbored desires in software and robotic development. The technology however, has brought with it novel ethical challenges. These challenges are compounded by the application of LLMs in other machine learning systems, such as multi-robot systems. The objectives of the study were to examine novel ethical issues arising from the application of LLMs in multi-robot systems. Unfolding ethical issues in GPT agent behavior (deliberation of ethical concerns) was observed, and GPT output was compared with human experts. The article also advances a model for ethical development of multi-robot systems. A qualitative workshop-based method was employed in three workshops for the collection of ethical concerns: two human expert workshops (N=16 participants) and one GPT-agent-based workshop (N=7 agents; two teams of 6 agents plus one judge). Thematic analysis was used to analyze the qualitative data. The results reveal differences between the human-produced and GPT-based ethical concerns. Human experts placed greater emphasis on new themes related to deviance, data privacy, bias and unethical corporate conduct. GPT agents emphasized concerns present in existing AI ethics guidelines. The study contributes to a growing body of knowledge in context-specific AI ethics and GPT application. It demonstrates the gap between human expert thinking and LLM output, while emphasizing new ethical concerns emerging in novel technology.
arxiv情報
著者 | Rebekah Rousi,Niko Makitalo,Hooman Samani,Kai-Kristian Kemell,Jose Siqueira de Cerqueira,Ville Vakkuri,Tommi Mikkonen,Pekka Abrahamsson |
発行日 | 2024-11-21 10:45:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google