Toward Quantum Machine Translation of Syntactically Distinct Languages

要約

本研究は、ノイズの多い中間スケール量子 (NISQ) デバイス上で量子自然言語処理アルゴリズムを使用した言語翻訳の実現可能性を調査することを目的としています。
自然言語処理 (NLP) の古典的な手法は、複雑な言語タスクに必要な大規模計算の処理に苦労していますが、NISQ デバイス上の量子 NLP は、量子並列処理と量子もつれを利用して、膨大な量の言語データを効率的に処理および分析するという点で有望であり、NLP に革命をもたらす可能性があります。
アプリケーション。
私たちの研究は、将来的に古典的な手法を上回る利点をもたらす可能性がある量子ニューラル機械翻訳への道を開くことに努めています。
シャノン エントロピーを使用して、パラメータ化された量子回路のパフォーマンスにおけるいくつかの適切な回転ゲート角度の重要な役割を実証します。
特に、これらの角度 (パラメータ) は、異なる言語の量子回路間の通信手段として利用されます。
私たちの目的を達成するために、古典的なニューラル ネットワークのエンコーダー – デコーダー モデルを採用し、長短期記憶 (LSTM) を使用して翻訳タスクを実装します。
私たちの実験には、英語の文章とそのペルシア語翻訳からなる 160 個のサンプルが含まれていました。
プライマリとして確率的勾配降下法 (SGD) を実装し、続いて SGD と組み合わせて 2 つの追加のオプティマイザーを組み込んださまざまなオプティマイザーを使用してモデルをトレーニングしました。
特に、2 つの LSTM レイヤーで構成され、Adam オプティマイザーを使用した最良のモデルをトレーニングすることにより、平均絶対誤差 0.03、平均二乗誤差 0.002、損失 0.016 という最適な結果が得られました。
私たちの小さなデータセットは、単語対単語のマッピングを備えた単純な同義文で構成されていますが、複雑な文構造に対するより複雑な機械翻訳モデルの性能指数としてシャノンのエントロピーが有用であることを示しています。

要約(オリジナル)

The present study aims to explore the feasibility of language translation using quantum natural language processing algorithms on noisy intermediate-scale quantum (NISQ) devices. Classical methods in natural language processing (NLP) struggle with handling large-scale computations required for complex language tasks, but quantum NLP on NISQ devices holds promise in harnessing quantum parallelism and entanglement to efficiently process and analyze vast amounts of linguistic data, potentially revolutionizing NLP applications. Our research endeavors to pave the way for quantum neural machine translation, which could potentially offer advantages over classical methods in the future. We employ Shannon entropy to demonstrate the significant role of some appropriate angles of rotation gates in the performance of parametrized quantum circuits. In particular, we utilize these angles (parameters) as a means of communication between quantum circuits of different languages. To achieve our objective, we adopt the encoder-decoder model of classical neural networks and implement the translation task using long short-term memory (LSTM). Our experiments involved 160 samples comprising English sentences and their Persian translations. We trained the models with different optimisers implementing stochastic gradient descent (SGD) as primary and subsequently incorporating two additional optimizers in conjunction with SGD. Notably, we achieved optimal results-with mean absolute error of 0.03, mean squared error of 0.002, and 0.016 loss-by training the best model, consisting of two LSTM layers and using the Adam optimiser. Our small dataset, though consisting of simple synonymous sentences with word-to-word mappings, points to the utility of Shannon entropy as a figure of merit in more complex machine translation models for intricate sentence structures.

arxiv情報

著者 Mina Abbaszade,Mariam Zomorodi,Vahid Salari,Philip Kurian
発行日 2023-07-31 11:24:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク