Can ChatGPT Read Who You Are?

要約

人工知能 (AI) と心理学の相互作用、特に性格評価における相互作用は、重要な新たな研究分野を表しています。
正確な性格特性の推定は、人間とコンピューターのインタラクションにおけるパーソナライゼーションを強化するためだけでなく、メンタルヘルスから教育に至るまでの幅広いアプリケーションにとっても重要です。
この論文では、短いテキストから性格特性を効果的に推測する汎用チャットボット ChatGPT の機能を分析します。
私たちは、155 人の参加者からなる代表的な母集団サンプルによってチェコ語で書かれたテキストを特徴とする包括的なユーザー調査の結果を報告します。
Big Five Inventory (BFI) アンケートに基づく彼らの自己評価は、正確な情報として機能します。
ChatGPT によって行われた性格特性推定を人間の評価者による推定と比較し、テキストから性格特性を推測する際の ChatGPT の競合パフォーマンスを報告します。
また、すべての性格側面にわたる ChatGPT の評価における「ポジティブバイアス」を明らかにし、迅速な構成が精度に及ぼす影響を調査します。
この研究は、心理評価における AI の機能の理解に貢献し、性格推論に大規模な言語モデルを使用することの可能性と限界の両方を浮き彫りにしています。
私たちの研究は、AI アプリケーションにおけるプライバシー、同意、自律性、偏見などの倫理的影響を考慮した、責任ある AI 開発の重要性を強調しています。

要約(オリジナル)

The interplay between artificial intelligence (AI) and psychology, particularly in personality assessment, represents an important emerging area of research. Accurate personality trait estimation is crucial not only for enhancing personalization in human-computer interaction but also for a wide variety of applications ranging from mental health to education. This paper analyzes the capability of a generic chatbot, ChatGPT, to effectively infer personality traits from short texts. We report the results of a comprehensive user study featuring texts written in Czech by a representative population sample of 155 participants. Their self-assessments based on the Big Five Inventory (BFI) questionnaire serve as the ground truth. We compare the personality trait estimations made by ChatGPT against those by human raters and report ChatGPT’s competitive performance in inferring personality traits from text. We also uncover a ‘positivity bias’ in ChatGPT’s assessments across all personality dimensions and explore the impact of prompt composition on accuracy. This work contributes to the understanding of AI capabilities in psychological assessment, highlighting both the potential and limitations of using large language models for personality inference. Our research underscores the importance of responsible AI development, considering ethical implications such as privacy, consent, autonomy, and bias in AI applications.

arxiv情報

著者 Erik Derner,Dalibor Kučera,Nuria Oliver,Jan Zahálka
発行日 2023-12-26 14:43:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.HC パーマリンク