要約
近年、人工知能は複雑なタスクの処理において大きな成功を収めています。
この成功は、機械学習アルゴリズムとハードウェア アクセラレーションの進歩によるものです。
より正確な結果を取得し、より複雑な問題を解決するには、より多くのデータを使用してアルゴリズムをトレーニングする必要があります。
この膨大な量のデータは処理に時間がかかり、大量の計算が必要になる可能性があります。
このソリューションは、データとアルゴリズムを複数のマシンに分散することで実現できます。これは分散機械学習として知られています。
分散機械学習アルゴリズムには多大な努力が払われており、これまでにさまざまな方法が提案されています。
この記事では、これらのアルゴリズムのレビューを通じて、この分野の現在の最先端技術の包括的な概要を紹介します。
このアルゴリズムを、分類とクラスタリング (従来の機械学習)、深層学習、および深層強化学習のグループに分けます。
分散深層学習は近年さらに注目を集めており、ほとんどの研究がこのアルゴリズムに基づいて行われています。
そのため、ここで説明した記事のほとんどはこのカテゴリに属します。
アルゴリズムの調査に基づいて、将来の研究で対処する必要がある制限を強調します。
要約(オリジナル)
Artificial intelligence has achieved significant success in handling complex tasks in recent years. This success is due to advances in machine learning algorithms and hardware acceleration. In order to obtain more accurate results and solve more complex problems, algorithms must be trained with more data. This huge amount of data could be time-consuming to process and require a great deal of computation. This solution could be achieved by distributing the data and algorithm across several machines, which is known as distributed machine learning. There has been considerable effort put into distributed machine learning algorithms, and different methods have been proposed so far. In this article, we present a comprehensive summary of the current state-of-the-art in the field through the review of these algorithms. We divide this algorithms in classification and clustering (traditional machine learning), deep learning and deep reinforcement learning groups. Distributed deep learning has gained more attention in recent years and most of studies worked on this algorithms. As a result, most of the articles we discussed here belong to this category. Based on our investigation of algorithms, we highlight limitations that should be addressed in future research.
arxiv情報
著者 | Mohammad Dehghani,Zahra Yazdanparast |
発行日 | 2023-07-11 13:06:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google