Psychometric Alignment: Capturing Human Knowledge Distributions via Language Models

要約

言語モデル (LM) は、教材の開発や公共政策の設計など、集団の行動を正確に模倣することで意思決定を導くことができるシナリオで、人間のような反応をシミュレートするために使用されることが増えています。
これらのシミュレーションの目的は、LM が単に期待される正解を提供するのではなく、人間の反応の変化を捉えることです。
これまでの研究では、LM が非現実的に正確な応答を生成することが多いことが示されていますが、LM の知識分布が人間の知識分布とどの程度一致しているかを定量化する確立された指標はありません。
これに対処するために、LM が人間の知識分布をどの程度反映しているかを測定する指標である「サイコメトリック アライメント」を導入します。
この整合性を評価するには、同じテスト項目セットに対する LM と人間の両方からの応答を収集し、項目応答理論を使用してグループ間の項目機能の違いを分析することが含まれます。
私たちの指標は、精度の違いなど、従来の指標では捉えることができなかった母集団の重要な変動を捉えることができることを実証します。
このメトリクスを適用して、既存の LM が 3 つの現実世界のドメインにわたる人間の知識分布と整合しているかどうかを評価します。
LM と人間集団の間には大きな不一致があることがわかりましたが、ペルソナベースのプロンプトを使用すると整合性が向上します。
興味深いことに、小型の LM は大型の LM よりも優れた心理測定的アライメントを達成する傾向があります。
さらに、ターゲット分布からの人間の反応データに基づいて LM をトレーニングすると、目に見えないテスト項目に対する心理測定の調整が強化されますが、そのようなトレーニングの有効性はドメインによって異なります。

要約(オリジナル)

Language models (LMs) are increasingly used to simulate human-like responses in scenarios where accurately mimicking a population’s behavior can guide decision-making, such as in developing educational materials and designing public policies. The objective of these simulations is for LMs to capture the variations in human responses, rather than merely providing the expected correct answers. Prior work has shown that LMs often generate unrealistically accurate responses, but there are no established metrics to quantify how closely the knowledge distribution of LMs aligns with that of humans. To address this, we introduce ‘psychometric alignment,’ a metric that measures the extent to which LMs reflect human knowledge distribution. Assessing this alignment involves collecting responses from both LMs and humans to the same set of test items and using Item Response Theory to analyze the differences in item functioning between the groups. We demonstrate that our metric can capture important variations in populations that traditional metrics, like differences in accuracy, fail to capture. We apply this metric to assess existing LMs for their alignment with human knowledge distributions across three real-world domains. We find significant misalignment between LMs and human populations, though using persona-based prompts can improve alignment. Interestingly, smaller LMs tend to achieve greater psychometric alignment than larger LMs. Further, training LMs on human response data from the target distribution enhances their psychometric alignment on unseen test items, but the effectiveness of such training varies across domains.

arxiv情報

著者 Joy He-Yueya,Wanjing Anya Ma,Kanishk Gandhi,Benjamin W. Domingue,Emma Brunskill,Noah D. Goodman
発行日 2024-07-22 14:02:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク