Clickbait Detection via Large Language Models

要約

クリックベイトは、クリックスルー率を高めるために、驚くべき、さらにはスリリングな見出しでユーザーを誘導することを目的としており、ニュース ポータルやソーシャル メディアなど、ほぼすべてのオンライン コンテンツ パブリッシャーに浸透しています。
最近、ラージ言語モデル (LLM) が強力なツールとして台頭し、NLP の下流タスクの重大な分野で大きな成功を収めました。
ただし、LLM が高品質のクリックベイト検出システムとして機能できるかどうかはまだ不明です。
このペーパーでは、英語と中国語の多数のベンチマーク データセットに対する少数ショット シナリオにおける LLM のパフォーマンスを分析します。
実験結果は、LLM が最先端の詳細な微調整 PLM 手法と比較して最良の結果を達成できないことを示しています。
人間の直感とは異なり、LLM は見出しだけでは満足のいくクリックベイト検出ができないことが実験で実証されました。

要約(オリジナル)

Clickbait, which aims to induce users with some surprising and even thrilling headlines for increasing click-through rates, permeates almost all online content publishers, such as news portals and social media. Recently, Large Language Models (LLMs) have emerged as a powerful instrument and achieved tremendous success in a serious of NLP downstream tasks. However, it is not yet known whether LLMs can be served as a high-quality clickbait detection system. In this paper, we analyze the performance of LLMs in the few-shot scenarios on a number of English and Chinese benchmark datasets. Experimental results show that LLMs cannot achieve the best results compared to the state-of-the-art deep and fine-tuning PLMs methods. Different from the human intuition, the experiments demonstrated that LLMs cannot make satisfied clickbait detection just by the headlines.

arxiv情報

著者 Yi Zhu,Han Wang,Ye Wang,Yun Li,Yunhao Yuan,Jipeng Qiang
発行日 2023-06-16 02:49:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク