要約
大規模な言語モデルは人間が書いたものと同じくらい説得力のある政治的メッセージを生成できるようになり、この説得力がモデルのサイズとともにどこまで増大し続けるかについて懸念が生じています。
ここでは、数桁の規模にわたる 24 の言語モデルから、10 の米国の政治問題に関する 720 の説得力のあるメッセージを生成します。
次に、これらのメッセージを大規模なランダム化調査実験 (N = 25,982) に展開して、各モデルの説得力を推定します。
私たちの発見は 2 つあります。
まず、対数スケーリングの法則の証拠を見つけます。モデルの説得力は、収益が急激に減少することによって特徴付けられます。そのため、現在のフロンティア モデルは、サイズが 1 桁以上小さいモデルよりもほとんど説得力がありません。
第二に、単なるタスクの完了 (一貫性、トピックからの逸脱) が、より大規模なモデルの説得力の利点を説明しているようです。
これらの発見は、モデルのサイズをさらにスケーリングしても、静的 LLM が生成するメッセージの説得力はあまり向上しないことを示唆しています。
要約(オリジナル)
Large language models can now generate political messages as persuasive as those written by humans, raising concerns about how far this persuasiveness may continue to increase with model size. Here, we generate 720 persuasive messages on 10 U.S. political issues from 24 language models spanning several orders of magnitude in size. We then deploy these messages in a large-scale randomized survey experiment (N = 25,982) to estimate the persuasive capability of each model. Our findings are twofold. First, we find evidence of a log scaling law: model persuasiveness is characterized by sharply diminishing returns, such that current frontier models are barely more persuasive than models smaller in size by an order of magnitude or more. Second, mere task completion (coherence, staying on topic) appears to account for larger models’ persuasive advantage. These findings suggest that further scaling model size will not much increase the persuasiveness of static LLM-generated messages.
arxiv情報
著者 | Kobi Hackenburg,Ben M. Tappin,Paul Röttger,Scott Hale,Jonathan Bright,Helen Margetts |
発行日 | 2024-06-20 17:12:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google