要約
ChatGPT のような大規模言語モデル (LLM) は、基本的には膨大なデータに基づいてトレーニングされたツールであり、社会の多様な印象を反映しています。
この論文は、先住民がさまざまな役割を果たすシナリオをシミュレートする際に、先住民性に関するLLMの自己認識バイアスを調査することを目的としています。
この研究では、複数のシナリオの生成と分析を通じて、ソーシャル コンピューティングにおける固有性に関連する社会的偏見をテクノロジーがどのように認識し、潜在的に増幅するかについて、独自の視点を提供します。
この調査結果は、クリティカル コンピューティングにおける固有性の広範な影響についての洞察を提供します。
要約(オリジナル)
Large Language Models (LLMs), like ChatGPT, are fundamentally tools trained on vast data, reflecting diverse societal impressions. This paper aims to investigate LLMs’ self-perceived bias concerning indigeneity when simulating scenarios of indigenous people performing various roles. Through generating and analyzing multiple scenarios, this work offers a unique perspective on how technology perceives and potentially amplifies societal biases related to indigeneity in social computing. The findings offer insights into the broader implications of indigeneity in critical computing.
arxiv情報
著者 | Cecilia Delgado Solorzano,Carlos Toxtli Hernandez |
発行日 | 2023-10-13 16:46:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google