Exploring Prompt-Based Methods for Zero-Shot Hypernym Prediction with Large Language Models

要約

この記事では、大規模言語モデル (LLM) を使用したハイパーニミー予測へのゼロショット アプローチについて調査します。
この研究では、テキスト確率計算に基づく方法を採用し、生成されたさまざまなプロンプトにそれを適用しました。
この実験は、言語モデル プロンプトの有効性と古典的なパターンの間に強い相関関係があることを示しており、より大きなモデルに移行する前に、より小さなモデルを使用して予備的なプロンプト選択を実行できることを示しています。
また、自動的に識別された共下語を介してプロンプトに追加情報を追加することで、共下位語を予測し、上位語の予測を改善するためのプロンプトも調査します。
より高いレベルの概念を予測するために反復アプローチが開発され、BLESS データセット (MAP = 0.8) の品質がさらに向上します。

要約(オリジナル)

This article investigates a zero-shot approach to hypernymy prediction using large language models (LLMs). The study employs a method based on text probability calculation, applying it to various generated prompts. The experiments demonstrate a strong correlation between the effectiveness of language model prompts and classic patterns, indicating that preliminary prompt selection can be carried out using smaller models before moving to larger ones. We also explore prompts for predicting co-hyponyms and improving hypernymy predictions by augmenting prompts with additional information through automatically identified co-hyponyms. An iterative approach is developed for predicting higher-level concepts, which further improves the quality on the BLESS dataset (MAP = 0.8).

arxiv情報

著者 Mikhail Tikhomirov,Natalia Loukachevitch
発行日 2024-01-09 12:13:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク