要約
私たちは、まず、確立された談話理解の標準テストを使用して、主要な AI システム GPT4 が人間と同じようにテキストを理解するかどうかを検証します。
このテストでは、人間のパフォーマンスが非常に高いことを考慮すると、GPT4 は人間よりわずかに優れていますが、統計的に有意ではありません。
GPT4 と人間はどちらも、テキストに明示的に記載されていない情報について正しい推論を行います。これは、理解の重要なテストです。
次に、より難しいパッセージを使用して、GPT4 と人間の間で大きな差異が許容されるかどうかを判断します。
GPT4 は、学生の読解力の入学テストとして、これらのテキスト文が設計されている高校生や大学生よりも、このより難しいテキストでかなり優れた成績を収めます。
これらの入学テストのいずれかで得られた材料に関する GPT4 のパフォーマンスをさらに深く調査すると、一般に受け入れられている真の理解の兆候、つまり一般化と推論が明らかになります。
要約(オリジナル)
We examine whether a leading AI system GPT4 understands text as well as humans do, first using a well-established standardized test of discourse comprehension. On this test, GPT4 performs slightly, but not statistically significantly, better than humans given the very high level of human performance. Both GPT4 and humans make correct inferences about information that is not explicitly stated in the text, a critical test of understanding. Next, we use more difficult passages to determine whether that could allow larger differences between GPT4 and humans. GPT4 does considerably better on this more difficult text than do the high school and university students for whom these the text passages are designed, as admission tests of student reading comprehension. Deeper exploration of GPT4 performance on material from one of these admission tests reveals generally accepted signatures of genuine understanding, namely generalization and inference.
arxiv情報
著者 | Thomas R. Shultz,Jamie M. Wise,Ardavan Salehi Nobandegani |
発行日 | 2024-12-20 17:50:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google