要約
大規模言語モデル (LLM)、特に ChatGPT はさまざまな分野で目覚ましい成果を上げていますが、その潜在的な人間に似た心理学はまだほとんど解明されていません。
既存の研究では、LLM の仮想人格を研究していますが、LLM を介して人間の人格を分析する可能性を検討することはほとんどありません。
この論文では、マイヤーズ ブリッグス タイプ インジケーター (MBTI) テストに基づいて人間の性格を評価するための、LLM のための一般的な評価フレームワークを紹介します。
具体的には、まず MBTI 質問の選択肢をランダムに並べ替えることによって公平なプロンプトを考案し、平均的なテスト結果を採用して、より公平な回答生成を促進します。
次に、LLM からのさまざまな主題に関する柔軟なクエリと評価を可能にするために、質問ステートメントの主題を置き換えることを提案します。
最後に、LLM がより明確な応答を生成できるように、正しさ評価の方法で質問の指示を再定式化します。
提案されたフレームワークにより、LLM はさまざまな人々のグループの性格を柔軟に評価できるようになります。
さらに、ChatGPT や GPT-4 を含む最先端の LLM からの評価結果の一貫性、堅牢性、公平性を測定する 3 つの評価指標を提案します。
私たちの実験は、ChatGPT が人間の性格を評価する能力を明らかにし、平均的な結果は、InstructGPT と比較してプロンプト バイアスに対するロバスト性が低いにもかかわらず、より一貫性があり、より公平な評価を達成できることを示しています。
要約(オリジナル)
Large Language Models (LLMs) especially ChatGPT have produced impressive results in various areas, but their potential human-like psychology is still largely unexplored. Existing works study the virtual personalities of LLMs but rarely explore the possibility of analyzing human personalities via LLMs. This paper presents a generic evaluation framework for LLMs to assess human personalities based on Myers Briggs Type Indicator (MBTI) tests. Specifically, we first devise unbiased prompts by randomly permuting options in MBTI questions and adopt the average testing result to encourage more impartial answer generation. Then, we propose to replace the subject in question statements to enable flexible queries and assessments on different subjects from LLMs. Finally, we re-formulate the question instructions in a manner of correctness evaluation to facilitate LLMs to generate clearer responses. The proposed framework enables LLMs to flexibly assess personalities of different groups of people. We further propose three evaluation metrics to measure the consistency, robustness, and fairness of assessment results from state-of-the-art LLMs including ChatGPT and GPT-4. Our experiments reveal ChatGPT’s ability to assess human personalities, and the average results demonstrate that it can achieve more consistent and fairer assessments in spite of lower robustness against prompt biases compared with InstructGPT.
arxiv情報
著者 | Haocong Rao,Cyril Leung,Chunyan Miao |
発行日 | 2023-10-13 15:53:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google