Learning Randomized Algorithms with Transformers

要約

ランダム化は、アルゴリズムに優れた特性を与える強力なツールです。
たとえば、ランダム化アルゴリズムは敵対的な設定で優れており、多くの場合、決定論的アルゴリズムの最悪の場合のパフォーマンスを大きなマージンで上回ります。
さらに、反復や多数決などの単純な戦略によって成功確率を高めることができます。
この論文では、ディープ ニューラル ネットワーク、特にトランスフォーマー モデルをランダム化によって強化します。
私たちは、純粋にデータと目的に基づいた方法で、学習を通じてランダム化されたアルゴリズムを変圧器に組み込むことができることを初めて実証しました。
まず、ランダム化されたアルゴリズムが決定的なアルゴリズムよりも明確な利点を提供する既知の敵対的な目標を分析します。
次に、勾配降下法や進化戦略などの一般的な最適化手法が、モデルに提供されたランダム性を利用する変換パラメーターを効果的に学習できることを示します。
ニューラル ネットワークを強化する際のランダム化の幅広い適用可能性を説明するために、連想想起、グラフの色付け、グリッド世界を探索するエージェントという 3 つの概念的なタスクを研究します。
私たちの実験では、学習されたランダム化による気付かない敵対者に対する堅牢性の向上を実証することに加えて、ニューラル ネットワークの計算と予測の本質的にランダムな性質により、顕著なパフォーマンスの向上が明らかになりました。

要約(オリジナル)

Randomization is a powerful tool that endows algorithms with remarkable properties. For instance, randomized algorithms excel in adversarial settings, often surpassing the worst-case performance of deterministic algorithms with large margins. Furthermore, their success probability can be amplified by simple strategies such as repetition and majority voting. In this paper, we enhance deep neural networks, in particular transformer models, with randomization. We demonstrate for the first time that randomized algorithms can be instilled in transformers through learning, in a purely data- and objective-driven manner. First, we analyze known adversarial objectives for which randomized algorithms offer a distinct advantage over deterministic ones. We then show that common optimization techniques, such as gradient descent or evolutionary strategies, can effectively learn transformer parameters that make use of the randomness provided to the model. To illustrate the broad applicability of randomization in empowering neural networks, we study three conceptual tasks: associative recall, graph coloring, and agents that explore grid worlds. In addition to demonstrating increased robustness against oblivious adversaries through learned randomization, our experiments reveal remarkable performance improvements due to the inherently random nature of the neural networks’ computation and predictions.

arxiv情報

著者 Johannes von Oswald,Seijin Kobayashi,Yassir Akram,Angelika Steger
発行日 2024-08-20 13:13:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク