A Categorical Archive of ChatGPT Failures

要約

大規模な言語モデルは、さまざまな分野で価値があることが実証されています。
OpenAI によって開発された ChatGPT は、大量のデータを使用してトレーニングされており、コンテキストを理解して適切な応答を生成することにより、人間の会話をシミュレートします。
セキュリティと有用性の両方で以前のパブリック チャットボットを凌駕する流暢で包括的な回答で、幅広い人間の問い合わせに効果的に回答する能力により、大きな注目を集めています。
ただし、この調査の焦点である ChatGPT の失敗の包括的な分析は不足しています。
推論、事実誤謬、数学、コーディング、バイアスなど、11 の失敗のカテゴリが提示され、説明されています。
ChatGPT のリスク、制限、および社会的影響も強調されています。
この調査の目的は、研究者と開発者が将来の言語モデルとチャットボットを強化するのを支援することです。

要約(オリジナル)

Large language models have been demonstrated to be valuable in different fields. ChatGPT, developed by OpenAI, has been trained using massive amounts of data and simulates human conversation by comprehending context and generating appropriate responses. It has garnered significant attention due to its ability to effectively answer a broad range of human inquiries, with fluent and comprehensive answers surpassing prior public chatbots in both security and usefulness. However, a comprehensive analysis of ChatGPT’s failures is lacking, which is the focus of this study. Eleven categories of failures, including reasoning, factual errors, math, coding, and bias, are presented and discussed. The risks, limitations, and societal implications of ChatGPT are also highlighted. The goal of this study is to assist researchers and developers in enhancing future language models and chatbots.

arxiv情報

著者 Ali Borji
発行日 2023-02-21 05:27:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク