要約
MapReduce (MR) モデルにおけるサブモジュラー関数の分散最大化は多くの注目を集めており、集中アルゴリズムが一定の一貫性特性を満たす限り、近似を失うことなく MR 設定で集中アルゴリズムを実行できるようにする 2 つのフレームワークで頂点に達しました。
— これまでは、標準の貪欲アルゴリズムと連続貪欲アルゴリズムによって満たされることが知られていました。
別の一連の作業では、各スレッドがグラウンド セット全体にアクセスできる、適応複雑性モデルにおけるサブモジュール最大化の並列化可能性が研究されました。
単調かつサブモジュラー関数のサイズ制約のある最大化について、いくつかの準線形適応型 (高度に並列化可能な) アルゴリズムが MR 設定で動作するために必要な一貫性特性を満たし、実用的で並列化可能な分散アルゴリズムが得られることを示します。
これとは別に、この問題に対して線形クエリ複雑度を備えた最初の分散アルゴリズムを開発します。
最後に、追加の MR ラウンドを犠牲にして、MR アルゴリズムの最大カーディナリティ制約を増やす方法を提供します。
要約(オリジナル)
Distributed maximization of a submodular function in the MapReduce (MR) model has received much attention, culminating in two frameworks that allow a centralized algorithm to be run in the MR setting without loss of approximation, as long as the centralized algorithm satisfies a certain consistency property — which had previously only been known to be satisfied by the standard greedy and continous greedy algorithms. A separate line of work has studied parallelizability of submodular maximization in the adaptive complexity model, where each thread may have access to the entire ground set. For the size-constrained maximization of a monotone and submodular function, we show that several sublinearly adaptive (highly parallelizable) algorithms satisfy the consistency property required to work in the MR setting, which yields practical, parallelizable and distributed algorithms. Separately, we develop the first distributed algorithm with linear query complexity for this problem. Finally, we provide a method to increase the maximum cardinality constraint for MR algorithms at the cost of additional MR rounds.
arxiv情報
著者 | Yixin Chen,Tonmoy Dey,Alan Kuhnle |
発行日 | 2024-09-16 16:39:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google