要約
大規模な言語モデル(LLMS)の印象的なパフォーマンスにもかかわらず、彼らはエンコードされた値によって駆動される意図しないバイアスと有害な行動を提示することができ、その背後にある価値メカニズムを理解する緊急の必要性を強調します。
ただし、現在の研究は、主にAIの安全性に焦点を当て、解釈可能性を欠いており、実際のコンテキストでの社会的価値を評価できない外部応答を通じてこれらの値を評価しています。
この論文では、NeuronレベルでのLLMS内の国家社会的価値の行動主導型メカニズムを探求することを目的とするValueExplorationと呼ばれる新しいフレームワークを提案します。
ケーススタディとして、私たちは中国の社会的価値に焦点を当て、LLMの中国の社会的価値を特定して評価するための大規模なバイリンガルベンチマークであるC-Voiceを最初に構築します。
C-Voiceを活用することにより、活性化の違いに応じてこれらの値をコードする原因となるニューロンを特定して見つけます。
最後に、これらのニューロンを非アクティブ化することにより、モデルの動作のシフトを分析し、値がLLMの意思決定に影響する内部メカニズムを明らかにします。
4人の代表的なLLMSに関する広範な実験は、フレームワークの有効性を検証します。
ベンチマークとコードが利用可能になります。
要約(オリジナル)
Despite the impressive performance of large language models (LLMs), they can present unintended biases and harmful behaviors driven by encoded values, emphasizing the urgent need to understand the value mechanisms behind them. However, current research primarily evaluates these values through external responses with a focus on AI safety, lacking interpretability and failing to assess social values in real-world contexts. In this paper, we propose a novel framework called ValueExploration, which aims to explore the behavior-driven mechanisms of National Social Values within LLMs at the neuron level. As a case study, we focus on Chinese Social Values and first construct C-voice, a large-scale bilingual benchmark for identifying and evaluating Chinese Social Values in LLMs. By leveraging C-voice, we then identify and locate the neurons responsible for encoding these values according to activation difference. Finally, by deactivating these neurons, we analyze shifts in model behavior, uncovering the internal mechanism by which values influence LLM decision-making. Extensive experiments on four representative LLMs validate the efficacy of our framework. The benchmark and code will be available.
arxiv情報
著者 | Ling Hu,Yuemei Xu,Xiaoyang Gu,Letao Han |
発行日 | 2025-04-07 12:23:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google