What makes for a ‘good’ social actor? Using respect as a lens to evaluate interactions with language agents

要約

大規模言語モデル (LLM) に基づく対話エージェントの人気が高まるにつれ、対話エージェントの行動が倫理的かつ適切であることを保証する方法を見つけることが緊急の注目を集めています。
これらは主に「HHH」基準に基づいて解釈されます。つまり、出力をより有益かつ正直にし、有害な (偏見のある、有毒な、または不正確な) 記述を避けることです。
この意味論的な焦点は、LLM エージェントを単なる情報の媒体として見る観点からは役立ちますが、異なる社会的状況において同じ発話が多かれ少なかれ攻撃的または無粋に見える可能性がある実用的な要因を説明できません。
私たちは、関係的要因と状況的要因により重点を置いた倫理へのアプローチを提案し、社会的アクターとしてのシステムが(一連の)相互作用の中で個人を敬意を持って扱うことが何を意味するかを探ります。
私たちの研究は、状況に応じたインタラクションのレベルでほとんど未調査の一連のリスクを予測し、LLM テクノロジーが「善良な」社会的主体として行動し、人々を敬意を持って扱うのを支援するための実践的な提案を提供します。

要約(オリジナル)

With the growing popularity of dialogue agents based on large language models (LLMs), urgent attention has been drawn to finding ways to ensure their behaviour is ethical and appropriate. These are largely interpreted in terms of the ‘HHH’ criteria: making outputs more helpful and honest, and avoiding harmful (biased, toxic, or inaccurate) statements. Whilst this semantic focus is useful from the perspective of viewing LLM agents as mere mediums for information, it fails to account for pragmatic factors that can make the same utterance seem more or less offensive or tactless in different social situations. We propose an approach to ethics that is more centred on relational and situational factors, exploring what it means for a system, as a social actor, to treat an individual respectfully in a (series of) interaction(s). Our work anticipates a set of largely unexplored risks at the level of situated interaction, and offers practical suggestions to help LLM technologies behave as ‘good’ social actors and treat people respectfully.

arxiv情報

著者 Lize Alberts,Geoff Keeling,Amanda McCroskery
発行日 2024-01-17 09:44:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T42, cs.AI, cs.CL, cs.HC, H.5.2 パーマリンク