‘Correct answers’ from the psychology of artificial intelligence

要約

大規模な言語モデルは、機能が大幅に向上しました。
このような AI システムの提案されたアプリケーションの 1 つは、社会科学および認知科学におけるデータ収集をサポートすることです。この分野では、完全な実験的制御は現在実行不可能であり、大規模で代表的なデータセットの収集は一般に高価です。
このホワイト ペーパーでは、口語的に GPT3.5 として知られている OpenAI の text-davinci-003 モデルを使用して、Many Labs 2 複製プロジェクトから 14 の研究を再複製します。
各研究の調査をテキストとして入力することにより、GPT3.5のデフォルト設定から回答を収集しました。
分析できた 8 つの研究のうち、GPT サンプルは、元の結果の 37.5% と、Many Labs 2 の結果の 37.5% を再現しました。
予期せぬことに、事前登録で計画していたように、残りの 6 つの研究を分析できませんでした。
これは、これらの 6 つの研究のそれぞれについて、GPT3.5 が調査の質問の少なくとも 1 つ (従属変数または条件変数) に非常に事前に決められた方法で回答したためです。これは、「正解」効果と呼ばれる予期しない現象です。
GPT3.5 のさまざまな実行では、政治的志向、経済的選好、判断、および道徳哲学を調査する微妙な質問に、応答の変動がゼロまたはほぼゼロで、おそらく「正しい答え」で答えました。
たとえば、私たちの調査の質問では、GPT3.5 のデフォルト設定が、ほとんどの場合、最大限に強力な保守派 (99.6%、N=1,030) であると自己認識し、大柄な男性の仮想的なプッシュに反対する際に常に道徳的に義務論的であることがわかりました。
5 人の命を救う (100%、N=1,030)。
将来の AI モデルは、GPT3.5 と同じデータの多くでトレーニングされる可能性があるため、GPT3.5 がおそらく「正しい答え」を学習したトレーニング データである可能性があるため、私たちの結果は、仮想的な AI 主導の未来が
特定の方法は、思考の多様性が減少する可能性があります。

要約(オリジナル)

Large Language Models have vastly grown in capabilities. One proposed application of such AI systems is to support data collection in the social and cognitive sciences, where perfect experimental control is currently unfeasible and the collection of large, representative datasets is generally expensive. In this paper, we re-replicate 14 studies from the Many Labs 2 replication project with OpenAI’s text-davinci-003 model, colloquially known as GPT3.5. We collected responses from the default setting of GPT3.5 by inputting each study’s survey as text. Among the eight studies we could analyse, our GPT sample replicated 37.5% of the original results as well as 37.5% of the Many Labs 2 results. Unexpectedly, we could not analyse the remaining six studies as we had planned in our pre-registration. This was because for each of these six studies, GPT3.5 answered at least one of the survey questions (either a dependent variable or a condition variable) in an extremely predetermined way: an unexpected phenomenon we call the ‘correct answer’ effect. Different runs of GPT3.5 answered nuanced questions probing political orientation, economic preference, judgement, and moral philosophy with zero or near-zero variation in responses: with the supposedly ‘correct answer.’ For example, our survey questions found the default setting of GPT3.5 to almost always self-identify as a maximally strong conservative (99.6%, N=1,030), and to always be morally deontological in opposing the hypothetical pushing of a large man in front of an incoming trolley to save the lives of five people (100%, N=1,030). Since AI models of the future may be trained on much of the same data as GPT3.5, training data from which GPT3.5 may have learned its supposedly ‘correct answers,’ our results raise concerns that a hypothetical AI-led future may in certain ways be subject to a diminished diversity of thought.

arxiv情報

著者 Peter S. Park,Philipp Schoenegger,Chongyang Zhu
発行日 2023-03-12 17:32:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 68T50, cs.AI, cs.CL, cs.HC, I.2.7 パーマリンク