要約
ディープラーニング研究者の間では、トレーニング中に最適なデータ拡張戦略を見つけることが、最先端のパフォーマンスと平凡な結果の違いを意味する可能性があることは周知の事実です。
この目的を達成するために、コミュニティでは、当面のタスクに最適な拡張手順を見つけるプロセスを自動化するための多くの取り組みが行われてきました。
残念なことに、最近の最先端の手法でも膨大な計算オーバーヘッドが発生し、理想的な構成に落ち着くまでに 100 もの完全なモデルのトレーニングが必要になります。
ランダム一次元拡張を使用したわずか 6 つのトレーニングを使用して、同等のパフォーマンスを達成する方法を示します。
ソースコードは https://github.com/fastestimator/RUA/tree/v1.0 で入手できます。
要約(オリジナル)
It is no secret amongst deep learning researchers that finding the optimal data augmentation strategy during training can mean the difference between state-of-the-art performance and a run-of-the-mill result. To that end, the community has seen many efforts to automate the process of finding the perfect augmentation procedure for any task at hand. Unfortunately, even recent cutting-edge methods bring massive computational overhead, requiring as many as 100 full model trainings to settle on an ideal configuration. We show how to achieve equivalent performance using just 6 trainings with Random Unidimensional Augmentation. Source code is available at https://github.com/fastestimator/RUA/tree/v1.0
arxiv情報
著者 | Xiaomeng Dong,Michael Potter,Gaurav Kumar,Yun-Chan Tsai,V. Ratna Saripalli,Theodore Trafalis |
発行日 | 2023-07-14 14:23:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google