Generating Text from Uniform Meaning Representation

要約

均一な意味表現(UMR)は、最近開発されたグラフベースのセマンティック表現であり、特にドキュメントレベルの情報と多言語の柔軟性を含めることにより、さまざまな方法で抽象的な意味表現(AMR)を拡張します。
下流タスクにUMRを効果的に採用および活用するには、UMR技術エコシステムの開発に向けて努力を払う必要があります。
これまでに限られた量のUMRアノテーションが生成されていますが、この作業では、多言語のUMRグラフからテキストを作成するための最初のアプローチを調査します。
(2)UMRデータを使用した大規模な言語モデルの微調整、および(3)UMRデータを使用して既存のAMRからテキストの生成モデルを微調整する。
私たちの最高のパフォーマンスモデルは、参照と比較した場合、英語で0.825、中国語で0.882の多言語Bertscoreを達成します。

要約(オリジナル)

Uniform Meaning Representation (UMR) is a recently developed graph-based semantic representation, which expands on Abstract Meaning Representation (AMR) in a number of ways, in particular through the inclusion of document-level information and multilingual flexibility. In order to effectively adopt and leverage UMR for downstream tasks, efforts must be placed toward developing a UMR technological ecosystem. Though still limited amounts of UMR annotations have been produced to date, in this work, we investigate the first approaches to producing text from multilingual UMR graphs: (1) a pipeline conversion of UMR to AMR, then using AMR-to-text generation models, (2) fine-tuning large language models with UMR data, and (3) fine-tuning existing AMR-to-text generation models with UMR data. Our best performing model achieves a multilingual BERTscore of 0.825 for English and 0.882 for Chinese when compared to the reference, which is a promising indication of the effectiveness of fine-tuning approaches for UMR-to-text generation with even limited amounts of UMR data.

arxiv情報

著者 Emma Markle,Reihaneh Iranmanesh,Shira Wein
発行日 2025-02-17 16:20:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク