Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach

要約

人間中心の説明可能な AI (HCXAI) は、AI の説明に社会的側面を統合することを提唱しています。
HCXAI の議論の中心となるのは、AI システムの社会組織的コンテキストをユーザーがアクセスできるようにすることを目的とした社会的透明性 (ST) フレームワークです。
この研究では、特にメンタルヘルスなどのデリケートな分野における、大規模言語モデル (LLM) における社会的誤った帰属のリスクに対処するために ST フレームワークを拡張することを提案します。
実際、役割やペルソナをシミュレートする能力に優れた LLM は、デザイナーの意図とユーザーの社会的属性の認識との間に不一致を引き起こす可能性があり、感情操作や危険な行動、認識論的不正義、不当な信頼を助長する危険性があります。
これらの問題に対処するために、設計者とユーザーによって LLM に割り当てられた特定の社会的属性を明確にするために、5 番目の「W 質問」で ST フレームワークを強化することを提案します。
この追加は、LLM の機能とユーザーの認識との間のギャップを埋め、倫理的に責任のある LLM ベースのテクノロジーの開発と使用を促進することを目的としています。

要約(オリジナル)

Human-centered explainable AI (HCXAI) advocates for the integration of social aspects into AI explanations. Central to the HCXAI discourse is the Social Transparency (ST) framework, which aims to make the socio-organizational context of AI systems accessible to their users. In this work, we suggest extending the ST framework to address the risks of social misattributions in Large Language Models (LLMs), particularly in sensitive areas like mental health. In fact LLMs, which are remarkably capable of simulating roles and personas, may lead to mismatches between designers’ intentions and users’ perceptions of social attributes, risking to promote emotional manipulation and dangerous behaviors, cases of epistemic injustice, and unwarranted trust. To address these issues, we propose enhancing the ST framework with a fifth ‘W-question’ to clarify the specific social attributions assigned to LLMs by its designers and users. This addition aims to bridge the gap between LLM capabilities and user perceptions, promoting the ethically responsible development and use of LLM-based technology.

arxiv情報

著者 Andrea Ferrario,Alberto Termine,Alessandro Facchini
発行日 2024-03-26 17:02:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク