Potential Societal Biases of ChatGPT in Higher Education: A Scoping Review

要約

ChatGPT およびその他の生成人工知能 (GAI) モデルは、大量の既存データに基づいてトレーニングされるため、一般的な社会バイアスを継承し、さらには増幅する傾向があります。
高等教育機関 (HEI) の学生、教職員、職員による ChatGPT やその他の GAI の使用が増加していることを考慮すると、潜在的な偏見など、関連する倫理的問題を早急に調査する必要があります。
この範囲レビューでは、高等教育現場における GAI に関連するバイアスが最近の学術出版物でどのように議論されているかを明らかにし、この一連の文献で一般的に報告されている潜在的なバイアスの種類を特定します。
私たちは、高等教育における GAI の利用と偏見に関する 4 つの主要なデータベースにわたって、英語、中国語、日本語で書かれた学術論文を検索しました。
私たちの調査結果によると、大規模言語モデル (LLM) と GAI に関する潜在的なバイアスについては認識されているものの、記事の大部分は比較的表面的なレベルで「バイアス」に触れていることがわかりました。
どのような状況でどのような種類のバイアスが発生する可能性があるかを特定する人はほとんどいません。
高等教育、スタッフ、教職員、学生に起こり得る影響についても議論していません。
現時点では実証研究が著しく不足しているため、高等教育の研究者や AI 専門家がこの分野でさらなる研究を行うよう呼びかけています。

要約(オリジナル)

ChatGPT and other Generative Artificial Intelligence (GAI) models tend to inherit and even amplify prevailing societal biases as they are trained on large amounts of existing data. Given the increasing usage of ChatGPT and other GAI by students, faculty members, and staff in higher education institutions (HEIs), there is an urgent need to examine the ethical issues involved such as its potential biases. In this scoping review, we clarify the ways in which biases related to GAI in higher education settings have been discussed in recent academic publications and identify what type of potential biases are commonly reported in this body of literature. We searched for academic articles written in English, Chinese, and Japanese across four main databases concerned with GAI usage in higher education and bias. Our findings show that while there is an awareness of potential biases around large language models (LLMs) and GAI, the majority of articles touch on “bias” at a relatively superficial level. Few identify what types of bias may occur under what circumstances. Neither do they discuss the possible implications for the higher education, staff, faculty members, or students. There is a notable lack of empirical work at this point, and we call for higher education researchers and AI experts to conduct more research in this area.

arxiv情報

著者 Ming Li,Ariunaa Enkhtur,Beverley Anne Yamamoto,Fei Cheng
発行日 2023-11-24 10:00:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY パーマリンク