要約
ChatGPT は OpenAI によって開発された AI 言語モデルで、人間のようなテキストを理解して生成できます。
言語生成、質問応答、テキスト要約、チャットボット開発、言語翻訳、感情分析、コンテンツ作成、パーソナライゼーション、テキスト補完、ストーリーテリングなど、さまざまなユースケースに使用できます。
ChatGPT は大きな肯定的な注目を集めていますが、学術界に不安と不確実性の感覚も生み出しています。
学生がChatGPTを活用して、真に知識を習得することなく持ち帰り課題や試験を完了し、良い成績を得るのではないかという懸念があります。
この論文は、学部のコンピュータ サイエンスのトピックに関するさまざまな質問に答える際に、ChatGPT の信頼性が非常に低いことを実証するために、定量的なアプローチを採用しています。
私たちの分析によると、学生は課題や試験を完了するために盲目的に ChatGPT に依存することで自己破壊行為を行う危険があることがわかりました。
私たちはこの分析に基づいて、学生と講師の両方に建設的な推奨事項を提供します。
要約(オリジナル)
ChatGPT is an AI language model developed by OpenAI that can understand and generate human-like text. It can be used for a variety of use cases such as language generation, question answering, text summarization, chatbot development, language translation, sentiment analysis, content creation, personalization, text completion, and storytelling. While ChatGPT has garnered significant positive attention, it has also generated a sense of apprehension and uncertainty in academic circles. There is concern that students may leverage ChatGPT to complete take-home assignments and exams and obtain favorable grades without genuinely acquiring knowledge. This paper adopts a quantitative approach to demonstrate ChatGPT’s high degree of unreliability in answering a diverse range of questions pertaining to topics in undergraduate computer science. Our analysis shows that students may risk self-sabotage by blindly depending on ChatGPT to complete assignments and exams. We build upon this analysis to provide constructive recommendations to both students and instructors.
arxiv情報
著者 | Ishika Joshi,Ritvik Budhiraja,Harshal Dev,Jahnvi Kadia,M. Osama Ataullah,Sayan Mitra,Dhruv Kumar,Harshal D. Akolekar |
発行日 | 2023-05-17 14:44:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google