Return of the RNN: Residual Recurrent Networks for Invertible Sentence Embeddings

要約

タイトル:RNNの復活:可逆な文章埋め込みのための残差再帰ネットワーク

要約:
– 可逆な文章埋め込みのための新しいモデルを提案する。
– このモデルは、教師なしのエンコーディングタスクでトレーニングされた残差再帰ネットワークを使用して実現される。
– 一般的なニューラル機械翻訳モデルとは異なり、回帰ベースの出力層を使用して入力シーケンスの単語ベクトルを再構築する。
– ADAM最適化手法を使用することで、高い精度と高速なトレーニングを実現する。
– LSTMなどのメモリユニットや2次最適化手法が必要な従来のRNNとは異なり、革新的な結果を示した。
– 残差接続を組み込み、’match drop’テクニックを導入することで、正確な単語のみについて勾配を計算することができる。
– 文章埋め込みの品質が必要なニューラルネットワークベースのシステムなど、様々な自然言語処理アプリケーションにおいて、このアプローチに潜在的な可能性がある。

要約(オリジナル)

This study presents a novel model for invertible sentence embeddings using a residual recurrent network trained on an unsupervised encoding task. Rather than the probabilistic outputs common to neural machine translation models, our approach employs a regression-based output layer to reconstruct the input sequence’s word vectors. The model achieves high accuracy and fast training with the ADAM optimizer, a significant finding given that RNNs typically require memory units, such as LSTMs, or second-order optimization methods. We incorporate residual connections and introduce a ‘match drop’ technique, where gradients are calculated only for incorrect words. Our approach demonstrates potential for various natural language processing applications, particularly in neural network-based systems that require high-quality sentence embeddings.

arxiv情報

著者 Jeremy Wilkerson
発行日 2023-04-06 00:22:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.LG パーマリンク