Evaluating GPT-3.5 and GPT-4 Models on Brazilian University Admission Exams

要約

本研究は、ブラジルの大学で広く採用されている学際的な入学試験である Exame Nacional do Ensino M\’edio (ENEM) に代表される、ハイステークスの多肢選択式テストに取り組む際の言語モデル (LM) の機能を調査することを目的としています。
この試験は、LM にとって困難なタスクを課します。その問題は、複数の知識分野にまたがる可能性があり、多様なドメインからの情報を理解する必要があるからです。
たとえば、問題を解決するには、統計学と生物学の両方を理解する必要がある場合があります。
この作業では、2009 年から 2017 年の試験で提示された問題と、モデルのトレーニングが完了した後に公開された 2022 年の試験の問題に対して、GPT-3.5 および GPT-4 モデルによって生成された応答を分析しました。
さらに、思考連鎖 (CoT) プロンプトを使用して回答の説明を生成するなど、さまざまなプロンプト戦略がテストされました。
2022 年版では、CoT を搭載した最高性能モデルの GPT-4 が 87% の精度を達成し、GPT-3.5 を 11 ポイント大きく上回りました。
実験で使用されたコードとデータは、https://github.com/piresramon/gpt-4-enem で入手できます。

要約(オリジナル)

The present study aims to explore the capabilities of Language Models (LMs) in tackling high-stakes multiple-choice tests, represented here by the Exame Nacional do Ensino M\’edio (ENEM), a multidisciplinary entrance examination widely adopted by Brazilian universities. This exam poses challenging tasks for LMs, since its questions may span into multiple fields of knowledge, requiring understanding of information from diverse domains. For instance, a question may require comprehension of both statistics and biology to be solved. This work analyzed responses generated by GPT-3.5 and GPT-4 models for questions presented in the 2009-2017 exams, as well as for questions of the 2022 exam, which were made public after the training of the models was completed. Furthermore, different prompt strategies were tested, including the use of Chain-of-Thought (CoT) prompts to generate explanations for answers. On the 2022 edition, the best-performing model, GPT-4 with CoT, achieved an accuracy of 87%, largely surpassing GPT-3.5 by 11 points. The code and data used on experiments are available at https://github.com/piresramon/gpt-4-enem.

arxiv情報

著者 Desnes Nunes,Ricardo Primi,Ramon Pires,Roberto Lotufo,Rodrigo Nogueira
発行日 2023-03-29 20:10:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク