要約
タイトル:PreCog:事前学習された言語モデルにおける暗記とパフォーマンスの関係を探る
要約:
– PreCogは、BERTの事前学習時の暗記を評価するための尺度である。
– 暗記された例は、一般的な学習例に関連しており、BERTのパフォーマンスと相関する。
– BERTの成功の鍵は、暗記にあると示唆されており、高度に暗記された例は、より良い分類結果を示す。
要約(オリジナル)
Pre-trained Language Models such as BERT are impressive machines with the ability to memorize, possibly generalized learning examples. We present here a small, focused contribution to the analysis of the interplay between memorization and performance of BERT in downstream tasks. We propose PreCog, a measure for evaluating memorization from pre-training, and we analyze its correlation with the BERT’s performance. Our experiments show that highly memorized examples are better classified, suggesting memorization is an essential key to success for BERT.
arxiv情報
著者 | Leonardo Ranaldi,Elena Sofia Ruzzetti,Fabio Massimo Zanzotto |
発行日 | 2023-05-09 05:37:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI