要約
大規模な言語モデルは、高度に洗練された人工知能の基盤として使用されており、法的および道徳的問題に関する調査に対して人間のような応答を返すことができます。
ただし、これらのモデルは、その内部動作を示す信頼性の低いガイドであり、その作成の背後にあるエンジニアリング チームでさえ、現在のすべての機能がどのようにして開発されたのかを正確に説明できません。
機械心理学の新興分野は、これらのモデルが持つプロセスと概念についての洞察を得ようとしています。
この論文では、心理学の手法を利用して GPT-4 の道徳的および法的推論を調査します。
より具体的には、意図性の帰属、因果関係に関する判断、欺瞞の道徳性、道徳的基盤、法的判断に対する道徳的幸運の影響、同意の概念、規則などに関して、GPT-4と人間の類似点と相違点を調査します。
違反判定。
人間の反応と AI の反応の間には高い相関関係があることがわかりましたが、それらの間にはいくつかの重要な体系的な違いもあります。
最後に、私たちの発見の哲学的意味についての議論を終わります。
要約(オリジナル)
Large language models have been used as the foundation of highly sophisticated artificial intelligences, capable of delivering human-like responses to probes about legal and moral issues. However, these models are unreliable guides to their own inner workings, and even the engineering teams behind their creation are unable to explain exactly how they came to develop all of the capabilities they currently have. The emerging field of machine psychology seeks to gain insight into the processes and concepts that these models possess. In this paper, we employ the methods of psychology to probe into GPT-4’s moral and legal reasoning. More specifically, we investigate the similarities and differences between GPT-4 and humans when it comes to intentionality ascriptions, judgments about causation, the morality of deception, moral foundations, the impact of moral luck on legal judgments, the concept of consent, and rule violation judgments. We find high correlations between human and AI responses, but also several significant systematic differences between them. We conclude with a discussion of the philosophical implications of our findings.
arxiv情報
著者 | Guilherme F. C. F. Almeida,José Luiz Nunes,Neele Engelmann,Alex Wiegmann,Marcelo de Araújo |
発行日 | 2023-08-02 16:36:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google