要約
タイトル:圧縮するかどうか-自己教師あり学習と情報理論:レビュー
要約:
– 深層ニューラルネットワークは教師あり学習タスクで優れた性能を発揮していますが、大量のラベルつきデータが必要です。
– 自己教師あり学習は、明示的なラベルなしでモデルがデータから学習できるようにする代替のパラダイムを提供します。
– 情報理論は、深層ニューラルネットワークの理解と最適化に重要な役割を果たしています。
– 特に、情報ボトルネックの原理は、教師あり設定での圧縮と関連情報の保存のトレードオフを最適化するために適用されてきました。
– ただし、自己教師あり学習の最適情報目標は未解明のままです。
– 本論文では、情報理論的観点から自己教師あり学習のさまざまなアプローチをレビューし、自己教師あり情報理論学習問題を厳密に定式化する統合フレームワークを提供します。
– 既存の研究を統合し、最近の自己教師ありメソッドを調べ、研究の機会と課題を特定します。
– さらに、情報理論量とその推定器の経験的測定について議論します。
– この論文は、情報理論、自己教師あり学習、深層ニューラルネットワークの交差部分を包括的にレビューし提供しています。
要約(オリジナル)
Deep neural networks have demonstrated remarkable performance in supervised learning tasks but require large amounts of labeled data. Self-supervised learning offers an alternative paradigm, enabling the model to learn from data without explicit labels. Information theory has been instrumental in understanding and optimizing deep neural networks. Specifically, the information bottleneck principle has been applied to optimize the trade-off between compression and relevant information preservation in supervised settings. However, the optimal information objective in self-supervised learning remains unclear. In this paper, we review various approaches to self-supervised learning from an information-theoretic standpoint and present a unified framework that formalizes the self-supervised information-theoretic learning problem. We integrate existing research into a coherent framework, examine recent self-supervised methods, and identify research opportunities and challenges. Moreover, we discuss empirical measurement of information-theoretic quantities and their estimators. This paper offers a comprehensive review of the intersection between information theory, self-supervised learning, and deep neural networks.
arxiv情報
| 著者 | Ravid Shwartz-Ziv,Yann LeCun |
| 発行日 | 2023-05-04 13:26:22+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI