The PRISM Alignment Dataset: What Participatory, Representative and Individualised Human Feedback Reveals About the Subjective and Multicultural Alignment of Large Language Models

要約

人間のフィードバックは、大規模言語モデル(LLM)のアラインメントの中心である。しかし、フィードバックプロセスの方法(どのように)、領域(どこで)、人(誰が)、目的(何のために)については、未解決の問題が残っている。このような疑問を解決するために、75カ国から集まった1,500人の多様な参加者の社会人口統計と嗜好を、21人のLLMとの8,011のライブ会話における文脈上の嗜好ときめ細かなフィードバックにマッピングしたデータセットであるPRISMを紹介する。PRISMでは、(i)フィードバックへの幅広い地理的・人口統計学的参加、(ii)2つの国(英国、米国)の国勢調査に代表されるサンプル、(iii)詳細な参加者プロフィールにリンクする個別化された評価、サンプルの人工物のパーソナライゼーションと帰属を可能にしている。(iii)詳細な参加者プロフィールにリンクする個人別評価により、サンプルの人工物の個人化と帰属を可能にする。私たちは、価値観や論争を含み、対人関係や異文化間の不一致が予想される問題について、主観的で多文化的な視点を対象としている。PRISMを3つのケーススタディで使用し、どのような人間がどのようなアライメントデータを提供するかを慎重に検討する必要性を示す。

要約(オリジナル)

Human feedback is central to the alignment of Large Language Models (LLMs). However, open questions remain about methods (how), domains (where), people (who) and objectives (to what end) of feedback processes. To navigate these questions, we introduce PRISM, a dataset that maps the sociodemographics and stated preferences of 1,500 diverse participants from 75 countries, to their contextual preferences and fine-grained feedback in 8,011 live conversations with 21 LLMs. With PRISM, we contribute (i) wider geographic and demographic participation in feedback; (ii) census-representative samples for two countries (UK, US); and (iii) individualised ratings that link to detailed participant profiles, permitting personalisation and attribution of sample artefacts. We target subjective and multicultural perspectives on value-laden and controversial issues, where we expect interpersonal and cross-cultural disagreement. We use PRISM in three case studies to demonstrate the need for careful consideration of which humans provide what alignment data.

arxiv情報

著者 Hannah Rose Kirk,Alexander Whitefield,Paul Röttger,Andrew Bean,Katerina Margatina,Juan Ciro,Rafael Mosquera,Max Bartolo,Adina Williams,He He,Bertie Vidgen,Scott A. Hale
発行日 2024-12-03 16:18:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク