Can we trust the evaluation on ChatGPT?

要約

大量採用された最初の大規模言語モデル (LLM) である ChatGPT は、多数の自然言語タスクで驚くべきパフォーマンスを発揮しました。
その明らかな有用性にもかかわらず、さまざまな問題領域での ChatGPT のパフォーマンスを評価することは、モデルの閉じた性質と、ヒューマン フィードバックからの強化学習 (RLHF) による継続的な更新のために、依然として困難なままです。
ChatGPT 評価におけるデータ汚染の問題を強調し、スタンス検出タスクのケース スタディを取り上げます。
クローズドで継続的にトレーニングされたモデルの時代に、データの汚染を防ぎ、公正なモデル評価を確保するという課題について説明します。

要約(オリジナル)

ChatGPT, the first large language model (LLM) with mass adoption, has demonstrated remarkable performance in numerous natural language tasks. Despite its evident usefulness, evaluating ChatGPT’s performance in diverse problem domains remains challenging due to the closed nature of the model and its continuous updates via Reinforcement Learning from Human Feedback (RLHF). We highlight the issue of data contamination in ChatGPT evaluations, with a case study of the task of stance detection. We discuss the challenge of preventing data contamination and ensuring fair model evaluation in the age of closed and continuously trained models.

arxiv情報

著者 Rachith Aiyappa,Jisun An,Haewoon Kwak,Yong-Yeol Ahn
発行日 2023-03-22 17:32:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク