A Generic Software Framework for Distributed Topological Analysis Pipelines

要約

このシステム ペーパーでは、分散メモリ モデルにおけるトポロジ解析パイプラインをサポートするためのソフトウェア フレームワークを紹介します。
最近のいくつかの論文では分散メモリ環境向けのトポロジベースのアプローチを紹介していますが、これらは調整されたモノラルアルゴリズムの実装で得られた実験を報告したものでした。
対照的に、この論文では、トポロジ分析パイプラインのための汎用の汎用フレームワーク、つまり、場合によっては異なる数のプロセス上で相互作用するトポロジカル アルゴリズムのシーケンスについて説明します。
具体的には、Topology ToolKit (TTK) 内の MPI モデルを使用してフレームワークをインスタンス化しました。
このフレームワークの開発中に、アルゴリズムおよびソフトウェア エンジニアリングのいくつかの課題に直面しました。それをこのホワイト ペーパーで文書化します。
通信ニーズに応じて、TTK によってサポートされる分散メモリ トポロジ アルゴリズムの分類を提供し、ハイブリッド MPI + スレッド並列化の例を提供します。
詳細なパフォーマンス分析により、並列効率が $20\%$ から $80\%$ の範囲にあり (アルゴリズムに応じて)、フレームワークによって導入された MPI 固有の事前条件が無視できるほどの計算時間のオーバーヘッドを引き起こすことが示されています。
TTK の新しい分散メモリ機能を、64 ノード (合計 1,536 ノード) を備えた標準クラスター上で発見された最大の公開データセット (頂点 1,200 億個) 上で実行される、複数のアルゴリズムを組み合わせた高度な分析パイプラインの例で説明します。
コア)。
最後に、TTK の MPI 拡張機能の完成に向けたロードマップと、各アルゴリズム通信カテゴリの一般的な推奨事項を提供します。

要約(オリジナル)

This system paper presents a software framework for the support of topological analysis pipelines in a distributed-memory model. While several recent papers introduced topology-based approaches for distributed-memory environments, these were reporting experiments obtained with tailored, mono-algorithm implementations. In contrast, we describe in this paper a general-purpose, generic framework for topological analysis pipelines, i.e. a sequence of topological algorithms interacting together, possibly on distinct numbers of processes. Specifically, we instantiated our framework with the MPI model, within the Topology ToolKit (TTK). While developing this framework, we faced several algorithmic and software engineering challenges, which we document in this paper. We provide a taxonomy for the distributed-memory topological algorithms supported by TTK, depending on their communication needs and provide examples of hybrid MPI+thread parallelizations. Detailed performance analyses show that parallel efficiencies range from $20\%$ to $80\%$ (depending on the algorithms), and that the MPI-specific preconditioning introduced by our framework induces a negligible computation time overhead. We illustrate the new distributed-memory capabilities of TTK with an example of advanced analysis pipeline, combining multiple algorithms, run on the largest publicly available dataset we have found (120 billion vertices) on a standard cluster with 64 nodes (for a total of 1,536 cores). Finally, we provide a roadmap for the completion of TTK’s MPI extension, along with generic recommendations for each algorithm communication category.

arxiv情報

著者 Eve Le Guillou,Michael Will,Pierre Guillou,Jonas Lukasczyk,Pierre Fortin,Christoph Garth,Julien Tierny
発行日 2023-10-12 13:57:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CG, cs.CV, cs.DC, cs.LG, cs.MS パーマリンク