Dimensionality of datasets in object detection networks

要約

近年、畳み込みニューラル ネットワーク (CNN) は、コンピューター ビジョンの多くのタスクで使用されています。
その一つが自動運転のための物体検出です。
CNN は多くの分野で広く使用されていますが、ネットワーク内で何が起こっているかはまだ多くのレベルで説明されていません。
私たちの目標は、拡張データセットのオブジェクト検出ネットワークの精度に対するさまざまなレイヤーの固有次元 (つまり、データを表すために必要なパラメーターの最小数) の影響を判断することです。
私たちの調査では、特徴抽出中に通常のデータと拡張データの表現に違いがあることがわかりました。

要約(オリジナル)

In recent years, convolutional neural networks (CNNs) are used in a large number of tasks in computer vision. One of them is object detection for autonomous driving. Although CNNs are used widely in many areas, what happens inside the network is still unexplained on many levels. Our goal is to determine the effect of Intrinsic dimension (i.e. minimum number of parameters required to represent data) in different layers on the accuracy of object detection network for augmented data sets. Our investigation determines that there is difference between the representation of normal and augmented data during feature extraction.

arxiv情報

著者 Ajay Chawda,Axel Vierling,Karsten Berns
発行日 2022-10-13 14:19:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク