要約
大規模言語モデル (LLM) は広範なコーパスでトレーニングされ、専門的な規範を持つコミュニティで使用されます。
LLM にコミュニティ ルールを提供するだけで、モデルがこれらの規範に従うのに十分ですか?
私たちは、Wikipedia の中立視点 (NPOV) ポリシーに従って、Wikipedia の偏った編集を検出 (タスク 1) し、修正 (タスク 2) する LLM の能力を評価します。
LLM はバイアス検出に苦労し、バランスの取れたデータセットで 64% の精度しか達成できませんでした。
モデルは対照的なバイアス (一部は過小予測バイアス、その他は過大予測バイアス) を示し、中立性に関する明確な事前分布を示唆しました。
LLM は生成時のパフォーマンスが向上し、Wikipedia 編集者によって削除された単語の 79% を削除しました。
ただし、LLM は Wikipedia 編集者の単純な無力化を超える追加の変更を加えたため、再現率は高いものの編集精度は低くなります。
興味深いことに、クラウドワーカーは AI のリライトがウィキペディア編集者のリライトよりも中立的 (70%) かつ流暢 (61%) であると評価しました。
定性分析の結果、LLM はウィキペディア編集者よりも包括的に NPOV を適用することがあるが、NPOV に関係のない無関係な変更 (文法など) を行うことが多いことが判明しました。
LLM は、一般の人々の共感を呼ぶものの、コミュニティの専門家とは異なる方法でルールを適用する場合があります。
LLM は生成には効果的である可能性がありますが、編集者の代理性が低下し、モデレーションの作業負荷が増加する可能性があります (追加の検証など)。
ルールを明確にするのは簡単であっても、LLM にコミュニティのメンバーと同じようにルールを適用させるのは依然として難しい場合があります。
要約(オリジナル)
Large language models (LLMs) are trained on broad corpora and then used in communities with specialized norms. Is providing LLMs with community rules enough for models to follow these norms? We evaluate LLMs’ capacity to detect (Task 1) and correct (Task 2) biased Wikipedia edits according to Wikipedia’s Neutral Point of View (NPOV) policy. LLMs struggled with bias detection, achieving only 64% accuracy on a balanced dataset. Models exhibited contrasting biases (some under- and others over-predicted bias), suggesting distinct priors about neutrality. LLMs performed better at generation, removing 79% of words removed by Wikipedia editors. However, LLMs made additional changes beyond Wikipedia editors’ simpler neutralizations, resulting in high-recall but low-precision editing. Interestingly, crowdworkers rated AI rewrites as more neutral (70%) and fluent (61%) than Wikipedia-editor rewrites. Qualitative analysis found LLMs sometimes applied NPOV more comprehensively than Wikipedia editors but often made extraneous non-NPOV-related changes (such as grammar). LLMs may apply rules in ways that resonate with the public but diverge from community experts. While potentially effective for generation, LLMs may reduce editor agency and increase moderation workload (e.g., verifying additions). Even when rules are easy to articulate, having LLMs apply them like community members may still be difficult.
arxiv情報
著者 | Joshua Ashkinaze,Ruijia Guan,Laura Kurek,Eytan Adar,Ceren Budak,Eric Gilbert |
発行日 | 2024-09-04 14:07:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google