Unifying Structured Data as Graph for Data-to-Text Pre-Training

要約

データからテキストへの (D2T) 生成は、構造化データを自然言語テキストに変換することを目的としています。
データからテキストへの事前トレーニングは、D2T 生成の強化に強力であり、印象的なパフォーマンスを生み出すことが証明されています。
ただし、以前の事前トレーニング方法では、入力構造を考慮せずに構造化データをシーケンスに過度に単純化したり、特定のデータ構造 (テーブルやナレッジ グラフなど) に合わせてトレーニング目標を設計したりしていました。
この論文では、さまざまなタイプの構造化データ (つまり、テーブル、キーと値のデータ、ナレッジ グラフ) をグラフ形式に統合し、さまざまなデータからテキストへの生成タスクをグラフからテキストへの生成としてキャストします。
入力グラフの構造情報を効果的に活用するために、構造強化された Transformer を設計することにより、D2T 生成のための構造強化された事前トレーニング方法を提案します。
具体的には、入力グラフ内の接続されたノードの相対位置情報をエンコードする、Transformer の位置行列を考案します。
さらに、利用可能な明示的な接続構造を考慮して、グラフ構造を元の Transformer に組み込むための新しいアテンション マトリックスを提案します。
6 つのベンチマーク データセットに対する広範な実験により、モデルの有効性が示されました。
私たちのソースコードは https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/unid2t で入手できます。

要約(オリジナル)

Data-to-text (D2T) generation aims to transform structured data into natural language text. Data-to-text pre-training has proved to be powerful in enhancing D2T generation and yields impressive performances. However, previous pre-training methods either oversimplified structured data into a sequence without considering input structures or designed training objectives tailored for a specific data structure (e.g., table or knowledge graph). In this paper, we unify different types of structured data (i.e., table, key-value data, knowledge graph) into the graph format and cast different data-to-text generation tasks as graph-to-text generation. To effectively exploit the structural information of the input graph, we propose a structure-enhanced pre-training method for D2T generation by designing a structure-enhanced Transformer. Concretely, we devise a position matrix for the Transformer, encoding relative positional information of connected nodes in the input graph. In addition, we propose a new attention matrix to incorporate graph structures into the original Transformer by taking the available explicit connectivity structure into account. Extensive experiments on six benchmark datasets show the effectiveness of our model. Our source codes are available at https://github.com/AlibabaResearch/DAMO-ConvAI/tree/main/unid2t.

arxiv情報

著者 Shujie Li,Liang Li,Ruiying Geng,Min Yang,Binhua Li,Guanghu Yuan,Wanwei He,Shao Yuan,Can Ma,Fei Huang,Yongbin Li
発行日 2024-01-02 12:23:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク