Clickbait Detection via Large Language Models

要約

クリックベイトは、クリックスルー率を高めるために、驚くべき、さらにはスリリングな見出しでユーザーを誘導することを目的としており、ニュース ポータルやソーシャル メディアなど、ほぼすべてのオンライン コンテンツ パブリッシャーに浸透しています。
最近、ラージ言語モデル (LLM) が強力なツールとして台頭し、一連の NLP ダウンストリーム タスクで多大な成功を収めています。
ただし、LLM が高品質のクリックベイト検出システムとして機能できるかどうかはまだ不明です。
このペーパーでは、いくつかの英語と中国語のベンチマーク データセットを使用して、少数ショット シナリオとゼロ ショット シナリオにおける LLM のパフォーマンスを分析します。
実験結果は、LLM が最先端の詳細な微調整 PLM 手法と比較して最良の結果を達成できないことを示しています。
人間の直感とは異なり、LLM は見出しだけでは満足のいくクリックベイト検出ができないことが実験で実証されました。

要約(オリジナル)

Clickbait, which aims to induce users with some surprising and even thrilling headlines for increasing click-through rates, permeates almost all online content publishers, such as news portals and social media. Recently, Large Language Models (LLMs) have emerged as a powerful instrument and achieved tremendous success in a series of NLP downstream tasks. However, it is not yet known whether LLMs can be served as a high-quality clickbait detection system. In this paper, we analyze the performance of LLMs in the few-shot and zero-shot scenarios on several English and Chinese benchmark datasets. Experimental results show that LLMs cannot achieve the best results compared to the state-of-the-art deep and fine-tuning PLMs methods. Different from human intuition, the experiments demonstrated that LLMs cannot make satisfied clickbait detection just by the headlines.

arxiv情報

著者 Han Wang,Yi Zhu,Ye Wang,Yun Li,Yunhao Yuan,Jipeng Qiang
発行日 2023-12-06 09:05:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク