要約
この研究では、リカレント ニューラル ネットワーク (RNN) に基づく言語モデル (LM) の計算表現力を調査します。
Siegelmann と Sontag (1992 年) は、有理重みと隠れ状態と無制限の計算時間を備えた RNN がチューリング完全であることを示したことは有名です。
ただし、LM は単なる (重み付けされていない) 言語メンバーシップに加えて文字列に対する重み付けを定義しており、RNN LM (RLM) の計算能力の分析はこれを反映する必要があります。
チューリング完全性の結果を確率的ケースに拡張し、無制限の計算時間で合理的に重み付けされた RLM がどのように確率的チューリング マシン (PTM) をシミュレートできるかを示します。
実際には、RLM はリアルタイムで動作し、タイム ステップごとにシンボルを処理するため、上記の結果を RLM の表現力の上限として扱います。
また、リアルタイム計算に対する制限の下で、そのようなモデルが決定論的なリアルタイム合理的 PTM をシミュレートできることを示すことで、下限も提供します。
要約(オリジナル)
This work investigates the computational expressivity of language models (LMs) based on recurrent neural networks (RNNs). Siegelmann and Sontag (1992) famously showed that RNNs with rational weights and hidden states and unbounded computation time are Turing complete. However, LMs define weightings over strings in addition to just (unweighted) language membership and the analysis of the computational power of RNN LMs (RLMs) should reflect this. We extend the Turing completeness result to the probabilistic case, showing how a rationally weighted RLM with unbounded computation time can simulate any probabilistic Turing machine (PTM). Since, in practice, RLMs work in real-time, processing a symbol at every time step, we treat the above result as an upper bound on the expressivity of RLMs. We also provide a lower bound by showing that under the restriction to real-time computation, such models can simulate deterministic real-time rational PTMs.
arxiv情報
著者 | Franz Nowak,Anej Svete,Li Du,Ryan Cotterell |
発行日 | 2023-10-19 17:39:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google