Dragon-Alpha&cu32: A Java-based Tensor Computing Framework With its High-Performance CUDA Library

要約

Java は非常に強力ですが、深層学習の分野ではその機能が十分に活用されていない可能性があります。
Java ベースの深層学習フレームワークと比較すると、使いやすさ、柔軟性、優れたエコシステムにより、Python ベース (PyTorch、TensorFlow など) が間違いなく主流です。
Dragon-Alpha は、使いやすく、スケーラビリティが高く、パフォーマンスが高い Java ベースの Tensor Computing Framework であり、深層学習分野における Java のジレンマを打破し、より効果的なものにしようとしています。
Dragon-Alpha はさまざまなレベルの API をサポートしており、ユーザーフレンドリーな高レベル API を通じて深層学習フレームワークとして使用できます。
Dragon-Alpha には、多層アーキテクチャと Java のビッグデータ エコシステムに基づいて、異種プラットフォームやデバイス全体のコンピューティング能力を集約できる可能性があります。
Dragon-Alpha には、並列処理を向上させる非同期 API と、小さな特徴マップに独自の畳み込み/逆畳み込み演算子を採用する高度に最適化された CUDA ライブラリ cu32 があります。
実験では、PyTorch&cuDNN と比較して、Dragon-Alpha&cu32 は Cifar-10 でいくつかの典型的なニューラル ネットワーク (AlexNet、VGG、GoogleNet、ResNet) をトレーニングするのにかかる時間とメモリのコストが少ない (75.38% ~ 97.32%、29.2% ~ 66.4%) ことを示しています。

要約(オリジナル)

Java is very powerful, but in Deep Learning field, its capabilities probably has not been sufficiently exploited. Compared to the Java-based deep-learning-frameworks, the Python-based (PyTorch, TensorFlow, etc) are undoubtedly the mainstream, due to their easy-to-use, flexibility and better ecosystem. Dragon-Alpha is a Java-based Tensor Computing Framework, with easy-to-use, high-scalability and high-performance, trying to break Java’s dilemma in deep learning field and make it more effective. Dragon-Alpha supports different levels of APIs, and can be used as a deep-learning-framework through its user-friendly high-level APIs. Dragon-Alpha has potential to aggregate computing-power across heterogeneous platforms and devices, based on its multi-layer architecture and Java’s big-data ecosystem. Dragon-Alpha has its asynchronized APIs to improve parallelism, and highly-optimized CUDA library cu32 which adopts unique convolution\deconvolution operators for small feature maps. The experiments show that, compared to PyTorch&cuDNN, Dragon-Alpha&cu32 costs less time and memory (75.38% to 97.32%, 29.2% to 66.4%), to train some typical neural networks (AlexNet, VGG, GoogleNet, ResNet) on Cifar-10.

arxiv情報

著者 Zhiyi Zhang,Pengfei Zhang,Qi Wang
発行日 2023-05-15 17:30:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.SE パーマリンク