Biased by Design: Leveraging AI Inherent Biases to Enhance Critical Thinking of News Readers

要約

このペーパーでは、大規模な言語モデル(LLMS)を使用したプロパガンダ検出ツールの設計について説明します。
AIモデル、特に政治的文脈における固有のバイアスを認めて、ニュース消費における批判的思考を強化するためにこれらのバイアスがどのように活用されるかを調査します。
AIバイアスの典型的な見解に有害なものとして対抗すると、私たちの研究は、ユーザーの政治的スタンスに応じてユーザーの選択とパーソナライズの戦略を提案し、確認バイアスと認知的不協和音の心理的概念を適用します。
Propaganda検出におけるAIツールの洞察と設計の推奨事項(バイアス認識、パーソナライズ、選択、多様な視点の徐々に紹介)を提供する定性的ユーザー調査の調査結果を提示します。

要約(オリジナル)

This paper explores the design of a propaganda detection tool using Large Language Models (LLMs). Acknowledging the inherent biases in AI models, especially in political contexts, we investigate how these biases might be leveraged to enhance critical thinking in news consumption. Countering the typical view of AI biases as detrimental, our research proposes strategies of user choice and personalization in response to a user’s political stance, applying psychological concepts of confirmation bias and cognitive dissonance. We present findings from a qualitative user study, offering insights and design recommendations (bias awareness, personalization and choice, and gradual introduction of diverse perspectives) for AI tools in propaganda detection.

arxiv情報

著者 Liudmila Zavolokina,Kilian Sprenkamp,Zoya Katashinskaya,Daniel Gordon Jones
発行日 2025-06-04 17:15:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC パーマリンク