A Benchmark and Robustness Study of In-Context-Learning with Large Language Models in Music Entity Detection

要約

曲のタイトルやアーティスト名などの音楽エンティティの検出は、音楽検索クエリの処理や Web 上の音楽消費の分析などのユースケースに役立つ便利なアプリケーションです。
最近のアプローチには、BERT のような小規模言語モデル (SLM) が組み込まれており、高い結果が得られます。
ただし、さらなる研究により、事前トレーニング中のエンティティの露出がモデルのパフォーマンスに大きな影響を与えることが示されています。
大規模言語モデル (LLM) の出現により、これらはさまざまな下流タスクで SLM を上回ります。
ただし、幻覚などの問題により、これがテキスト内のエンティティ検出などのタスクに適用できるかどうかは、研究者の間でも意見が分かれています。
このペーパーでは、ユーザーが生成したメタデータの新しいデータセットを提供し、インコンテキスト学習 (ICL) を備えた最新の LLM を使用してベンチマークと堅牢性の研究を実施します。
私たちの結果は、ICL 設定の LLM が SLM よりも高いパフォーマンスを生み出すことを示しています。
さらに、私たちの調査では、エンティティの露出が最もパフォーマンスの高い LLM に与える大きな影響も明らかにしました。

要約(オリジナル)

Detecting music entities such as song titles or artist names is a useful application to help use cases like processing music search queries or analyzing music consumption on the web. Recent approaches incorporate smaller language models (SLMs) like BERT and achieve high results. However, further research indicates a high influence of entity exposure during pre-training on the performance of the models. With the advent of large language models (LLMs), these outperform SLMs in a variety of downstream tasks. However, researchers are still divided if this is applicable to tasks like entity detection in texts due to issues like hallucination. In this paper, we provide a novel dataset of user-generated metadata and conduct a benchmark and a robustness study using recent LLMs with in-context-learning (ICL). Our results indicate that LLMs in the ICL setting yield higher performance than SLMs. We further uncover the large impact of entity exposure on the best performing LLM in our study.

arxiv情報

著者 Simon Hachmeier,Robert Jäschke
発行日 2024-12-16 15:11:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.MM パーマリンク