要約
深層学習を使用して人間のようなテキストを生成する自己回帰言語モデルは、ますます普及しています。
このようなモデルは、スマート ヘルス、金融、自動運転などの分野で人気のある仮想アシスタントを強化しています。
これらの大規模な言語モデルのパラメータは改善されていますが、これらのモデルが社会のすべてのサブグループに対して等しく機能しない可能性があるという懸念が残っています.
分野を超えた AI の公平性に関する議論が増えているにもかかわらず、対話システムにおける公平性が何を意味するのか、評価ループにさまざまな人々を関与させる方法を評価するための体系的な指標が不足しています。
この論文では、審議民主主義と科学技術研究の理論に基づいて、人間と AI の対話における公平性の意味を解明するための分析フレームワークを提案します。
このフレームワークを使用して、GPT-3 が重要な科学的および社会的トピックに関するさまざまなサブ集団にどのように対応したかを調べるために、監査研究を実施しました。
私たちのコーパスは、GPT-3 と、性別、人種、民族、教育レベル、第一言語としての英語、問題に対する意見が異なる 3290 人の個人との間の 20,000 ラウンドを超える対話で構成されています。
意見と教育の少数派のサブ集団の間で、GPT-3のユーザーエクスペリエンスが大幅に低下することがわかりました。
ただし、これらの 2 つのグループは、チャット後に BLM と気候変動の取り組みをサポートすることに対する態度を変え、最大の知識の獲得を達成しました。
これらのユーザー エクスペリエンスの違いを会話の違いまで追跡したところ、GPT-3 は、多数派グループへの回答と比較して、教育および意見の少数派グループに回答したときに、より多くの否定的な表現を使用することがわかりました。
多様性、公平性、包括性を一元化する審議型会話型 AI システムに対する調査結果の意味について説明します。
要約(オリジナル)
Autoregressive language models, which use deep learning to produce human-like texts, have become increasingly widespread. Such models are powering popular virtual assistants in areas like smart health, finance, and autonomous driving. While the parameters of these large language models are improving, concerns persist that these models might not work equally for all subgroups in society. Despite growing discussions of AI fairness across disciplines, there lacks systemic metrics to assess what equity means in dialogue systems and how to engage different populations in the assessment loop. Grounded in theories of deliberative democracy and science and technology studies, this paper proposes an analytical framework for unpacking the meaning of equity in human-AI dialogues. Using this framework, we conducted an auditing study to examine how GPT-3 responded to different sub-populations on crucial science and social topics: climate change and the Black Lives Matter (BLM) movement. Our corpus consists of over 20,000 rounds of dialogues between GPT-3 and 3290 individuals who vary in gender, race and ethnicity, education level, English as a first language, and opinions toward the issues. We found a substantively worse user experience with GPT-3 among the opinion and the education minority subpopulations; however, these two groups achieved the largest knowledge gain, changing attitudes toward supporting BLM and climate change efforts after the chat. We traced these user experience divides to conversational differences and found that GPT-3 used more negative expressions when it responded to the education and opinion minority groups, compared to its responses to the majority groups. We discuss the implications of our findings for a deliberative conversational AI system that centralizes diversity, equity, and inclusion.
arxiv情報
著者 | Kaiping Chen,Anqi Shao,Jirayu Burapacheep,Yixuan Li |
発行日 | 2023-03-14 21:47:37+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google