要約
過学習とは、モデルがトレーニング データに近づきすぎて一般化が不十分になる機械学習現象を指します。
この出来事は多くの形式の教師あり学習に関して徹底的に文書化されていますが、教師なし学習の文脈では十分に調査されていません。
この研究では、教師なし対照学習における過学習の性質を調べます。
過学習が実際に発生する可能性があることと、過学習の背後にあるメカニズムを示します。
要約(オリジナル)
Overfitting describes a machine learning phenomenon where the model fits too closely to the training data, resulting in poor generalization. While this occurrence is thoroughly documented for many forms of supervised learning, it is not well examined in the context of unsupervised learning. In this work we examine the nature of overfitting in unsupervised contrastive learning. We show that overfitting can indeed occur and the mechanism behind overfitting.
arxiv情報
著者 | Zachary Rabin,Jim Davis,Benjamin Lewis,Matthew Scherreik |
発行日 | 2024-08-22 15:56:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google