Tokenization with Factorized Subword Encoding

要約

近年、言語モデルはますます大規模かつ複雑になってきています。
ただし、これらのモデルの入力表現は、引き続きシンプルで貪欲なサブワード トークン化メソッドに依存します。
この論文では、VQ-VAE モデルを使用してサブワードを離散トリプレットに因数分解する新しいトークン化方法を提案します。
ファクタライザーと呼ばれる提案されたトークン化手法の有効性は、7 つの多様な言語の言語モデリングと形態構文タスクで評価されます。
結果は、この方法が、一般的に使用されているバイトペア エンコーディング (BPE) トークン化アルゴリズムよりも形態学的タスクに適しており、堅牢であることを示しています。

要約(オリジナル)

In recent years, language models have become increasingly larger and more complex. However, the input representations for these models continue to rely on simple and greedy subword tokenization methods. In this paper, we propose a novel tokenization method that factorizes subwords onto discrete triplets using a VQ-VAE model. The effectiveness of the proposed tokenization method, referred to as the Factorizer, is evaluated on language modeling and morpho-syntactic tasks for 7 diverse languages. Results indicate that this method is more appropriate and robust for morphological tasks than the commonly used byte-pair encoding (BPE) tokenization algorithm.

arxiv情報

著者 David Samuel,Lilja Øvrelid
発行日 2023-06-13 13:27:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク