To Compress or Not to Compress — Self-Supervised Learning and Information Theory: A Review

要約

タイトル:圧縮するかどうか–自己教示学習と情報理論:レビュー

要約:

– 監督学習の課題に対し、ラベルを必要とせずにモデルがデータから学ぶ自己教示学習がアプローチとして提供されている。
– 情報理論は、深層ニューラルネットワークの理解と最適化において重要な役割を果たしている。
– 監督設定での圧縮と関連情報の保存のトレードオフを最適化するために情報ボトルネック原理が適用されている。
– しかし、自己教示学習における最適情報目的は明確ではない。
– この論文では、情報理論的観点から、自己教示学習についての様々なアプローチをレビューし、自己教示情報理論学習問題を形式化する統一的なフレームワークを提示する。
– 現存する研究を統合し、最近の自己教示学習方法を調べ、研究の機会と課題を特定する。
– さらに、情報理論的量とその推定値の経験的測定についても議論する。
– この論文では、自己教示学習、情報理論、深層ニューラルネットワークといった分野の交差点について包括的なレビューを提供している。

要約(オリジナル)

Deep neural networks have demonstrated remarkable performance in supervised learning tasks but require large amounts of labeled data. Self-supervised learning offers an alternative paradigm, enabling the model to learn from data without explicit labels. Information theory has been instrumental in understanding and optimizing deep neural networks. Specifically, the information bottleneck principle has been applied to optimize the trade-off between compression and relevant information preservation in supervised settings. However, the optimal information objective in self-supervised learning remains unclear. In this paper, we review various approaches to self-supervised learning from an information-theoretic standpoint and present a unified framework that formalizes the self-supervised information-theoretic learning problem. We integrate existing research into a coherent framework, examine recent self-supervised methods, and identify research opportunities and challenges. Moreover, we discuss empirical measurement of information-theoretic quantities and their estimators. This paper offers a comprehensive review of the intersection between information theory, self-supervised learning, and deep neural networks.

arxiv情報

著者 Ravid Shwartz-Ziv,Yann LeCun
発行日 2023-04-28 05:10:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.IT, cs.LG, math.IT パーマリンク