要約
モデルはヒューリスティックに依存することが多く、目に見えない概念の処理に苦労するため、オープンドメインのセマンティック解析は依然として困難な作業です。
この論文では、このタスクに対する大規模言語モデル (LLM) の可能性を調査し、外部の語彙知識を解析プロセスに統合するシンプルかつ効果的なアプローチである検索拡張セマンティック解析 (RASP) を紹介します。
私たちの実験では、LLM がセマンティック解析に関して以前のエンコーダ/デコーダのベースラインを上回るパフォーマンスを示しただけでなく、RASP が目に見えない概念を予測する能力をさらに強化し、配布外の概念について以前のモデルのパフォーマンスをほぼ 2 倍にしたことを示しています。
これらの発見は、大規模な言語モデルと検索メカニズムを活用して、堅牢でオープンドメインのセマンティック解析を実現できる可能性を強調しています。
要約(オリジナル)
Open-domain semantic parsing remains a challenging task, as models often rely on heuristics and struggle to handle unseen concepts. In this paper, we investigate the potential of large language models (LLMs) for this task and introduce Retrieval-Augmented Semantic Parsing (RASP), a simple yet effective approach that integrates external lexical knowledge into the parsing process. Our experiments not only show that LLMs outperform previous encoder-decoder baselines for semantic parsing, but that RASP further enhances their ability to predict unseen concepts, nearly doubling the performance of previous models on out-of-distribution concepts. These findings highlight the promise of leveraging large language models and retrieval mechanisms for robust and open-domain semantic parsing.
arxiv情報
著者 | Xiao Zhang,Qianru Meng,Johan Bos |
発行日 | 2024-12-13 15:30:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google