要約
フレームのセマンティック解析の最先端技術は近年劇的に進歩しましたが、エンドユーザーが最先端のモデルを実際に適用することは依然として困難です。
これに対処するために、使いやすさに重点を置きながら、FrameNet 1.7 でほぼ最先端のパフォーマンスを実現するオープンソースの Python ライブラリである Frame Semantic Transformer を紹介します。
Propbank と FrameNet のエグザンプラで微調整された T5 モデルをベースとして使用し、FrameNet 字句単位を使用して推論時に T5 にヒントを提供することでパフォーマンスを向上させます。
トレーニング中にテキストデータの拡張を使用することで、実世界のデータに対する堅牢性を高めます。
要約(オリジナル)
While the state-of-the-art for frame semantic parsing has progressed dramatically in recent years, it is still difficult for end-users to apply state-of-the-art models in practice. To address this, we present Frame Semantic Transformer, an open-source Python library which achieves near state-of-the-art performance on FrameNet 1.7, while focusing on ease-of-use. We use a T5 model fine-tuned on Propbank and FrameNet exemplars as a base, and improve performance by using FrameNet lexical units to provide hints to T5 at inference time. We enhance robustness to real-world data by using textual data augmentations during training.
arxiv情報
著者 | David Chanin |
発行日 | 2023-03-22 17:57:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google