Cognitive Bias in High-Stakes Decision-Making with LLMs

要約

大規模言語モデル (LLM) は、拡大する範囲の意思決定タスクをサポートするツールとして大きな可能性をもたらします。
人間の(作成された)データに関するトレーニングを考慮すると、LLM は保護されたグループに対する社会的バイアスを受け継ぎ、機能的に認知バイアスに似たバイアスを受けやすいことが示されています。
人間のような偏見は、LLM の支援による公正で説明可能な意思決定を妨げる可能性があります。
私たちの研究では、LLM、特に一か八かの意思決定タスクにおける認知バイアスを発見、評価、軽減するように設計されたフレームワークである BiasBuster を紹介します。
心理学と認知科学の先行研究に触発され、さまざまな認知バイアス(プロンプト誘発性、逐次的、固有のものなど)を評価するための 16,800 のプロンプトを含むデータセットを開発しました。
私たちは、LLM を利用して自身のプロンプトのバイアスを軽減する新しい方法を提案する中で、さまざまなバイアス軽減戦略をテストします。
私たちの分析は、商用モデルとオープンソース モデルにわたる認知バイアスの存在と影響の包括的な全体像を提供します。
私たちの自助型バイアス解消法は、各バイアスの例を手動で作成することなく、人間の認知バイアスに似たパターンを示す模範解答を効果的に軽減できることを実証します。

要約(オリジナル)

Large language models (LLMs) offer significant potential as tools to support an expanding range of decision-making tasks. Given their training on human (created) data, LLMs have been shown to inherit societal biases against protected groups, as well as be subject to bias functionally resembling cognitive bias. Human-like bias can impede fair and explainable decisions made with LLM assistance. Our work introduces BiasBuster, a framework designed to uncover, evaluate, and mitigate cognitive bias in LLMs, particularly in high-stakes decision-making tasks. Inspired by prior research in psychology and cognitive science, we develop a dataset containing 16,800 prompts to evaluate different cognitive biases (e.g., prompt-induced, sequential, inherent). We test various bias mitigation strategies, amidst proposing a novel method utilising LLMs to debias their own prompts. Our analysis provides a comprehensive picture of the presence and effects of cognitive bias across commercial and open-source models. We demonstrate that our self-help debiasing effectively mitigates model answers that display patterns akin to human cognitive bias without having to manually craft examples for each bias.

arxiv情報

著者 Jessica Echterhoff,Yao Liu,Abeer Alessa,Julian McAuley,Zexue He
発行日 2024-07-19 13:47:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク