要約
事前トレーニングされた言語モデルは依存関係解析タスクで広く使用されており、パーサーのパフォーマンスが大幅に向上しました。
ただし、ゼロショット シナリオで追加のパーサー構造を導入することなく、事前トレーニングされた言語モデルが依存関係解析の能力を自発的に発揮できるかどうかは、まだ十分に研究されていない問題です。
この論文では、ChatGPT などの大規模言語モデルの依存関係解析能力を調査し、言語分析を行うことを提案します。
実験結果は、ChatGPT が潜在的なゼロショット依存関係パーサーであることを示しており、言語分析では、解析出力におけるいくつかの独自の優先順位も示しています。
要約(オリジナル)
Pre-trained language models have been widely used in dependency parsing task and have achieved significant improvements in parser performance. However, it remains an understudied question whether pre-trained language models can spontaneously exhibit the ability of dependency parsing without introducing additional parser structure in the zero-shot scenario. In this paper, we propose to explore the dependency parsing ability of large language models such as ChatGPT and conduct linguistic analysis. The experimental results demonstrate that ChatGPT is a potential zero-shot dependency parser, and the linguistic analysis also shows some unique preferences in parsing outputs.
arxiv情報
著者 | Boda Lin,Xinyi Zhou,Binghao Tang,Xiaocheng Gong,Si Li |
発行日 | 2023-10-25 14:08:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google