要約
認知バイアス、判断における合理性からの体系的な逸脱は、客観的な内容を生成する上で重要な課題をもたらします。
このペーパーでは、大規模な言語モデル(LLM)と高度な迅速なエンジニアリング手法を使用したユーザー生成テキストでのリアルタイム認知バイアス検出のための新しいアプローチを紹介します。
提案されたシステムは、テキストデータを分析して、確認バイアス、循環推論、隠された仮定などの一般的な認知バイアスを特定します。
テーラードプロンプトを設計することにより、システムはこれらのバイアスを認識して軽減するためにLLMSの機能を効果的に活用し、人間で生成されたコンテンツの品質を向上させます(たとえば、ニュース、メディア、レポート)。
実験結果は、認知バイアスを特定する際のアプローチの高精度を示し、コンテンツの客観性を高め、偏った意思決定のリスクを減らすための貴重なツールを提供します。
要約(オリジナル)
Cognitive biases, systematic deviations from rationality in judgment, pose significant challenges in generating objective content. This paper introduces a novel approach for real-time cognitive bias detection in user-generated text using large language models (LLMs) and advanced prompt engineering techniques. The proposed system analyzes textual data to identify common cognitive biases such as confirmation bias, circular reasoning, and hidden assumption. By designing tailored prompts, the system effectively leverages LLMs’ capabilities to both recognize and mitigate these biases, improving the quality of human-generated content (e.g., news, media, reports). Experimental results demonstrate the high accuracy of our approach in identifying cognitive biases, offering a valuable tool for enhancing content objectivity and reducing the risks of biased decision-making.
arxiv情報
著者 | Frederic Lemieux,Aisha Behr,Clara Kellermann-Bryant,Zaki Mohammed |
発行日 | 2025-03-07 15:35:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google