Exploring and steering the moral compass of Large Language Models

要約

大規模言語モデル (LLM) は、さまざまな分野にわたって自動化と意思決定を進める上で中心的な存在となっており、重大な倫理的問題が生じています。
この研究は、最先端の LLM の道徳的プロフィールを評価するための包括的な比較分析を提案しています。
私たちはいくつかの最先端のモデルを選択した倫理的ジレンマにさらしたところ、すべての独自モデルはほとんどが実用的であり、すべてのオープンウェイトモデルは主に価値観に基づく倫理と一致していることがわかりました。
さらに、道徳基盤アンケートを使用した場合、ラマ 2 を除くすべてのモデルで調査したところ、強いリベラルなバイアスが示されました。
最後に、研究されたモデルの 1 つに因果的に介入するために、新しい類似性に固有のアクティベーション ステアリング手法を提案します。
この方法を使用することで、モデルの道徳の羅針盤をさまざまな倫理学派に確実に導くことができました。
これらの結果はすべて、すでに導入されている LLM には倫理的な側面があり、一般的には見落とされている側面であることを示しています。

要約(オリジナル)

Large Language Models (LLMs) have become central to advancing automation and decision-making across various sectors, raising significant ethical questions. This study proposes a comprehensive comparative analysis of the most advanced LLMs to assess their moral profiles. We subjected several state-of-the-art models to a selection of ethical dilemmas and found that all the proprietary ones are mostly utilitarian and all of the open-weights ones align mostly with values-based ethics. Furthermore, when using the Moral Foundations Questionnaire, all models we probed – except for Llama 2- displayed a strong liberal bias. Lastly, in order to causally intervene in one of the studied models, we propose a novel similarity-specific activation steering technique. Using this method, we were able to reliably steer the model’s moral compass to different ethical schools. All of these results showcase that there is an ethical dimension in already deployed LLMs, an aspect that is generally overlooked.

arxiv情報

著者 Alejandro Tlaie
発行日 2024-05-27 16:49:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク