要約
量子密度行列は量子システム全体のすべての情報を表し、密度行列を使用する新しい意味モデルは、特に量子質問応答タスクにおける下位語や言語的曖昧さなどの言語現象を自然にモデル化します。
当然のことながら、量子密度行列を古典的な質問応答 (QA) タスクに適用すると、より効果的なパフォーマンスを発揮できると主張します。
具体的には、(i) 入力が行列の場合に対応するために、長期短期記憶 (LSTM) に基づいた新しいメカニズムを設計します。
(ii) 新しいメカニズムを畳み込みニューラル ネットワーク (CNN) を使用して QA 問題に適用し、量子密度行列を使用した LSTM ベースの QA モデルを取得します。
TREC-QA および WIKI-QA データセットに対する新しいモデルの実験では、有望な結果が示されました。
同様に、量子密度行列も画像の特徴情報と古典的な画像分類の特徴間の関係を強化できると主張します。
したがって、(i) 密度行列と CNN を組み合わせて新しいメカニズムを設計します。
(ii) 新しいメカニズムをいくつかの代表的な古典的な画像分類タスクに適用します。
一連の実験は、画像分類における量子密度行列の適用が、さまざまなデータセットに対して一般化され、高い効率を有することを示しています。
量子密度行列を古典的な質問応答タスクと古典的な画像分類タスクの両方に適用すると、より効果的なパフォーマンスが示されます。
要約(オリジナル)
Quantum density matrix represents all the information of the entire quantum system, and novel models of meaning employing density matrices naturally model linguistic phenomena such as hyponymy and linguistic ambiguity, among others in quantum question answering tasks. Naturally, we argue that applying the quantum density matrix into classical Question Answering (QA) tasks can show more effective performance. Specifically, we (i) design a new mechanism based on Long Short-Term Memory (LSTM) to accommodate the case when the inputs are matrixes; (ii) apply the new mechanism to QA problems with Convolutional Neural Network (CNN) and gain the LSTM-based QA model with the quantum density matrix. Experiments of our new model on TREC-QA and WIKI-QA data sets show encouraging results. Similarly, we argue that the quantum density matrix can also enhance the image feature information and the relationship between the features for the classical image classification. Thus, we (i) combine density matrices and CNN to design a new mechanism; (ii) apply the new mechanism to some representative classical image classification tasks. A series of experiments show that the application of quantum density matrix in image classification has the generalization and high efficiency on different datasets. The application of quantum density matrix both in classical question answering tasks and classical image classification tasks show more effective performance.
arxiv情報
著者 | X. Q. Zhao,H. Wan |
発行日 | 2023-09-15 07:55:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google