Maintaining Performance with Less Data

要約

画像分類のためのニューラルネットワークモデルの学習コストを削減するために、入力データを動的に削減する新しい方法を提案します。Deep Learningタスクが普及するにつれ、その計算複雑性が増し、実行時間が長く、より多くの入力データを必要とする、より複雑なアルゴリズムとモデルになっています。その結果、時間、ハードウェア、環境リソースにかかるコストが大きくなります。データ削減技術を用いることで、実行される作業量を減らし、その結果、AI技術の環境への影響を低減します。動的なデータ削減により、精度を維持しながら実行時間を最大50%削減し、二酸化炭素排出量を比例的に削減できる可能性を示しています。

要約(オリジナル)

We propose a novel method for training a neural network for image classification to reduce input data dynamically, in order to reduce the costs of training a neural network model. As Deep Learning tasks become more popular, their computational complexity increases, leading to more intricate algorithms and models which have longer runtimes and require more input data. The result is a greater cost on time, hardware, and environmental resources. By using data reduction techniques, we reduce the amount of work performed, and therefore the environmental impact of AI techniques, and with dynamic data reduction we show that accuracy may be maintained while reducing runtime by up to 50%, and reducing carbon emission proportionally.

arxiv情報

著者 Dominic Sanderson,Tatiana Kalgonova
発行日 2022-08-03 12:22:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク