要約
検索結果が検索者にとって価値があるかどうかを示す関連性ラベルは、検索システムを評価および最適化するための鍵となります。
ユーザーの真の好みを把握する最善の方法は、どの結果が役立つかについて慎重なフィードバックをユーザーに求めることですが、このアプローチは大量のラベルを生成するように拡張できません。
関連性ラベルの大規模な取得は通常、ユーザーに代わって判断するサードパーティのラベラーによって行われますが、ラベラーがユーザーのニーズを理解していないと、データの品質が低下するリスクがあります。
品質を向上させるための標準的なアプローチの 1 つは、インタビュー、ユーザー調査、直接フィードバックを通じて実際のユーザーを調査し、ラベルがユーザーと組織的に意見が一致していない領域を見つけ、ガイドラインの判断、トレーニング、モニタリングを通じてユーザーのニーズについてラベル作成者を教育することです。
このペーパーでは、ラベルの品質を向上させるための代替アプローチを紹介します。
実際のユーザーからの慎重なフィードバックが必要であり、定義上、それは派生可能な最高品質のファーストパーティ ゴールド データであり、そのデータと一致する大規模な言語モデル プロンプトを開発します。
Bing での大規模な関連性ラベル付けのための言語モデルの展開から得たアイデアと観察を示し、TREC のデータを使用して説明します。
大規模な言語モデルが効果的であり、人間のラベル作成者と同等の精度と、最も困難なクエリ、最適な実行、最適なグループを選択する同様の機能を備えていることがわかりました。
プロンプトを体系的に変更すると精度が変わりますが、単純な言い換えも同様です。
実際の検索者との一致を測定するには、高品質の「ゴールド」ラベルが必要ですが、これらを使用すると、モデルは数分の 1 のコストでサードパーティのワーカーよりも優れたラベルを生成することがわかり、これらのラベルを使用して、特に優れたランカーをトレーニングできるようになります。
要約(オリジナル)
Relevance labels, which indicate whether a search result is valuable to a searcher, are key to evaluating and optimising search systems. The best way to capture the true preferences of users is to ask them for their careful feedback on which results would be useful, but this approach does not scale to produce a large number of labels. Getting relevance labels at scale is usually done with third-party labellers, who judge on behalf of the user, but there is a risk of low-quality data if the labeller doesn’t understand user needs. To improve quality, one standard approach is to study real users through interviews, user studies and direct feedback, find areas where labels are systematically disagreeing with users, then educate labellers about user needs through judging guidelines, training and monitoring. This paper introduces an alternate approach for improving label quality. It takes careful feedback from real users, which by definition is the highest-quality first-party gold data that can be derived, and develops an large language model prompt that agrees with that data. We present ideas and observations from deploying language models for large-scale relevance labelling at Bing, and illustrate with data from TREC. We have found large language models can be effective, with accuracy as good as human labellers and similar capability to pick the hardest queries, best runs, and best groups. Systematic changes to the prompts make a difference in accuracy, but so too do simple paraphrases. To measure agreement with real searchers needs high-quality “gold” labels, but with these we find that models produce better labels than third-party workers, for a fraction of the cost, and these labels let us train notably better rankers.
arxiv情報
著者 | Paul Thomas,Seth Spielman,Nick Craswell,Bhaskar Mitra |
発行日 | 2024-05-02 17:46:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google