A Generalization Bound of Deep Neural Networks for Dependent Data

要約

ディープ ニューラル ネットワークの既存の一般化限界では、データが独立しており、同一に分散している (iid) ことが必要です。
この仮定は、進化生物学、感染症疫学、株価予測などの現実の応用では当てはまらない可能性があります。
この研究は、非定常 $\phi$ ミキシング データに対するフィードフォワード ニューラル ネットワークの一般化限界を確立します。

要約(オリジナル)

Existing generalization bounds for deep neural networks require data to be independent and identically distributed (iid). This assumption may not hold in real-life applications such as evolutionary biology, infectious disease epidemiology, and stock price prediction. This work establishes a generalization bound of feed-forward neural networks for non-stationary $\phi$-mixing data.

arxiv情報

著者 Quan Huu Do,Binh T. Nguyen,Lam Si Tung Ho
発行日 2023-10-09 17:33:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク