Clickbait Detection via Large Language Models

要約

ClickBaitは、クリックスルーレートを上げるための驚くべき、さらにスリリングな見出しでユーザーを誘導することを目的としており、ニュースポータルやソーシャルメディアなど、ほぼすべてのオンラインコンテンツパブリッシャーに浸透しています。
最近、大規模な言語モデル(LLM)が強力な楽器として浮上し、一連のNLPダウンストリームタスクで大きな成功を収めました。
ただし、LLMが高品質のクリックベイト検出システムとして提供できるかどうかはまだわかっていません。
この論文では、いくつかの英語と中国のベンチマークデータセットの少数のショットおよびゼロショットシナリオでのLLMSのパフォーマンスを分析します。
実験結果は、LLMが最先端の深いPLMSメソッドと比較して最良の結果を達成できないことを示しています。
人間の直感とは異なる実験は、LLMSが見出しだけで満足したクリックベイト検出を行うことができないことを実証しました。

要約(オリジナル)

Clickbait, which aims to induce users with some surprising and even thrilling headlines for increasing click-through rates, permeates almost all online content publishers, such as news portals and social media. Recently, Large Language Models (LLMs) have emerged as a powerful instrument and achieved tremendous success in a series of NLP downstream tasks. However, it is not yet known whether LLMs can be served as a high-quality clickbait detection system. In this paper, we analyze the performance of LLMs in the few-shot and zero-shot scenarios on several English and Chinese benchmark datasets. Experimental results show that LLMs cannot achieve the best results compared to the state-of-the-art deep and fine-tuning PLMs methods. Different from human intuition, the experiments demonstrated that LLMs cannot make satisfied clickbait detection just by the headlines.

arxiv情報

著者 Han Wang,Yi Zhu,Ye Wang,Yun Li,Yunhao Yuan,Jipeng Qiang
発行日 2025-05-12 12:57:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク