Measuring Moral Inconsistencies in Large Language Models

要約

大規模言語モデル(LLM)は、意味的に等価なプロンプトが意味的に等価な応答を生成する場合、一貫性があるとみなされる。会話システムにおけるLLMの素晴らしい能力を示す最近の進歩にもかかわらず、我々は最先端のLLMでさえ、その世代において非常に一貫性がないことを示し、その信頼性を疑問視する。先行研究では、タスク固有の精度でこれを測定しようとしてきた。しかし、このアプローチは、トロッコ問題のような「正解」のない道徳的なシナリオには不向きである。この問題に対処するため、我々は道徳的シナリオにおけるLLMの一貫性を測定するために、セマンティックグラフエントロピー(SGE)と呼ばれる新しい情報理論的尺度を提案する。我々は、モデルの意思決定戦略を説明するために「親指の法則」(RoTs)を活用し、我々の指標をさらに強化する。既存の一貫性測定基準と比較して、SGEは5つのLLMにおいて人間の判断とより良い相関を示した。将来的には、LLMの矛盾の根本原因を調査し、改善策を提案することを目指している。

要約(オリジナル)

A Large Language Model (LLM) is considered consistent if semantically equivalent prompts produce semantically equivalent responses. Despite recent advancements showcasing the impressive capabilities of LLMs in conversational systems, we show that even state-of-the-art LLMs are highly inconsistent in their generations, questioning their reliability. Prior research has tried to measure this with task-specific accuracy. However, this approach is unsuitable for moral scenarios, such as the trolley problem, with no ‘correct’ answer. To address this issue, we propose a novel information-theoretic measure called Semantic Graph Entropy (SGE) to measure the consistency of an LLM in moral scenarios. We leverage ‘Rules of Thumb’ (RoTs) to explain a model’s decision-making strategies and further enhance our metric. Compared to existing consistency metrics, SGE correlates better with human judgments across five LLMs. In the future, we aim to investigate the root causes of LLM inconsistencies and propose improvements.

arxiv情報

著者 Vamshi Krishna Bonagiri,Sreeram Vennam,Manas Gaur,Ponnurangam Kumaraguru
発行日 2024-03-01 06:35:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG パーマリンク