The Moral Machine Experiment on Large Language Models

要約

大規模言語モデル (LLM) がさまざまな分野にさらに深く統合されるにつれて、特に自動運転の分野では、LLM がどのように道徳的判断を下すかを理解することが重要になっています。
この研究では、モラル マシン フレームワークを利用して、GPT-3.5、GPT-4、PaLM 2、Llama 2 などの著名な LLM の倫理的意思決定傾向を調査し、人間の好みに対するそれらの反応を比較しました。
ペットよりも人間を優先したり、より多くの命を救うことを好むなど、LLM と人間の好みはほぼ一致していますが、特に PaLM 2 と Llama 2 には明らかな逸脱が見られます。
さらに、LLM と人間の好みの間には定性的な類似性があるにもかかわらず、量的には大きな差異があり、人間のより穏やかな傾向と比較して、LLM はより妥協のない決定に傾いている可能性があることを示唆しています。
これらの洞察は、LLM の倫理的枠組みと自動運転に対する LLM の潜在的な影響を明らかにします。

要約(オリジナル)

As large language models (LLMs) become more deeply integrated into various sectors, understanding how they make moral judgments has become crucial, particularly in the realm of autonomous driving. This study utilized the Moral Machine framework to investigate the ethical decision-making tendencies of prominent LLMs, including GPT-3.5, GPT-4, PaLM 2, and Llama 2, comparing their responses to human preferences. While LLMs’ and humans’ preferences such as prioritizing humans over pets and favoring saving more lives are broadly aligned, PaLM 2 and Llama 2, especially, evidence distinct deviations. Additionally, despite the qualitative similarities between the LLM and human preferences, there are significant quantitative disparities, suggesting that LLMs might lean toward more uncompromising decisions, compared to the milder inclinations of humans. These insights elucidate the ethical frameworks of LLMs and their potential implications for autonomous driving.

arxiv情報

著者 Kazuhiro Takemoto
発行日 2023-09-12 04:49:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.HC パーマリンク