Controlling Topic-Focus Articulation in Meaning-to-Text Generation using Graph Neural Networks

要約

裸の意味表現は、情報が表面レベルでどのように構造化されているかによって、自然言語を用いて様々な方法で表現することができる。我々は、意味からテキストを生成する際に、トピックに焦点を当てた表現を制御する方法を見つけることに興味がある。我々は他動詞を持つ文の能動態と受動態を区別することに焦点を当てている。トピックのような語用論的情報を意味表現に加えることで、自然言語生成システムに与えたときに能動態か受動態のどちらかを強制することである。グラフで表現された意味には語順に関する明示的な情報がないため、グラフニューラルモデルを使用する。グラフニューラルモデルを用いたトピックフォーカスアーティキュレーション(TFA)のための3つの異なる方法を、意味からテキストへの生成タスクに対して試す。我々は、グラフニューラルモデルにおけるノード集約に関する新しい符号化戦略を提案する。これは、隣接するノード情報を集約する従来の符号化の代わりに、深さ優先探索を用いてノード表現を学習するものである。その結果、我々のアプローチは、一般的なテキスト生成において、最新のグラフモデルと競合する性能を得ることができ、従来の隣接ノードに基づく集約戦略と比較して、アクティブ-パッシブ変換タスクにおいて大幅な改善につながることが示された。異なるタイプのTFAはグラフモデルの性能に大きな影響を与える。

要約(オリジナル)

A bare meaning representation can be expressed in various ways using natural language, depending on how the information is structured on the surface level. We are interested in finding ways to control topic-focus articulation when generating text from meaning. We focus on distinguishing active and passive voice for sentences with transitive verbs. The idea is to add pragmatic information such as topic to the meaning representation, thereby forcing either active or passive voice when given to a natural language generation system. We use graph neural models because there is no explicit information about word order in a meaning represented by a graph. We try three different methods for topic-focus articulation (TFA) employing graph neural models for a meaning-to-text generation task. We propose a novel encoding strategy about node aggregation in graph neural models, which instead of traditional encoding by aggregating adjacent node information, learns node representations by using depth-first search. The results show our approach can get competitive performance with state-of-art graph models on general text generation, and lead to significant improvements on the task of active-passive conversion compared to traditional adjacency-based aggregation strategies. Different types of TFA can have a huge impact on the performance of the graph models.

arxiv情報

著者 Chunliu Wang,Rik van Noord,Johan Bos
発行日 2023-10-03 13:51:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク