要約
【タイトル】Neuromodulation Gated Transformer
【要約】
– Neuromodulation Gated Transformer(NGT)という新しいアーキテクチャを紹介する。
– このアーキテクチャは、乗算効果を介したトランスフォーマーにおけるニューロモジュレーションの簡単な実装である。
– ベースラインと比較して、SuperGLUEベンチマーク検証セットにおいて最高の平均パフォーマンスを示す。
要約(オリジナル)
We introduce a novel architecture, the Neuromodulation Gated Transformer (NGT), which is a simple implementation of neuromodulation in transformers via a multiplicative effect. We compare it to baselines and show that it results in the best average performance on the SuperGLUE benchmark validation sets.
arxiv情報
著者 | Kobe Knowles,Joshua Bensemann,Diana Benavides Prado,Vithya Yogarajan,Michael Witbrock,Gillian Dobbie,Yang Chen |
発行日 | 2023-05-05 01:23:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI