要約
最近の進歩にもかかわらず、大規模言語モデル (LLM) は、社会的および文化的慣習の複雑さに適切に対応するという課題に依然として直面しています。
この論文では、文化的知識の高精度かつ高再現率の主張を抽出する方法論である MANGO を紹介します。
私たちは、コンセプトと文化という 2 つのエントリ ポイントから、この目的のために LLM に賢明かつ反復的にプロンプトを出します。
出力はクラスタリングと生成的要約によって統合されます。
基盤となる LLM として GPT-3.5 を使用して MANGO メソッドを実行すると、30,000 の概念と 11,000 のカルチャーに対して 167,000 の高精度アサーションが生成され、以前のリソースを大幅に上回りました。
外部評価については、文化的知識の主張による対話システムの強化を検討します。
ヒューマン・アノテーターが判断したところ、MANGO からの知識を追加すると、対話応答の全体的な品質、特異性、文化的感受性が向上することがわかりました。
データとコードはダウンロードできます。
要約(オリジナル)
Despite recent progress, large language models (LLMs) still face the challenge of appropriately reacting to the intricacies of social and cultural conventions. This paper presents MANGO, a methodology for distilling high-accuracy, high-recall assertions of cultural knowledge. We judiciously and iteratively prompt LLMs for this purpose from two entry points, concepts and cultures. Outputs are consolidated via clustering and generative summarization. Running the MANGO method with GPT-3.5 as underlying LLM yields 167K high-accuracy assertions for 30K concepts and 11K cultures, surpassing prior resources by a large margin. For extrinsic evaluation, we explore augmenting dialogue systems with cultural knowledge assertions. We find that adding knowledge from MANGO improves the overall quality, specificity, and cultural sensitivity of dialogue responses, as judged by human annotators. Data and code are available for download.
arxiv情報
著者 | Tuan-Phong Nguyen,Simon Razniewski,Gerhard Weikum |
発行日 | 2024-04-17 14:12:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google