要約
大規模言語モデルは最近、社会科学のテキスト注釈タスクに適用され、数分の一のコストで人間の作業者と同等またはそれを超えるパフォーマンスを実現しています。
しかし、迅速な選択がラベルの精度に及ぼす影響についてはまだ調査されていません。
この研究では、プロンプト間でパフォーマンスが大きく異なることを示し、自動プロンプト最適化の手法を適用して、高品質のプロンプトを体系的に作成します。
また、https://prompt-ultra.github.io/ で、メソッドのシンプルなブラウザベースの実装をコミュニティに提供します。
要約(オリジナル)
Large Language Models have recently been applied to text annotation tasks from social sciences, equalling or surpassing the performance of human workers at a fraction of the cost. However, no inquiry has yet been made on the impact of prompt selection on labelling accuracy. In this study, we show that performance greatly varies between prompts, and we apply the method of automatic prompt optimization to systematically craft high quality prompts. We also provide the community with a simple, browser-based implementation of the method at https://prompt-ultra.github.io/ .
arxiv情報
著者 | Louis Abraham,Charles Arnal,Antoine Marie |
発行日 | 2024-07-15 12:04:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google