要約
大規模な言語モデル(LLM)は、テキストの要約で印象的なパフォーマンスを達成しており、実際のアプリケーションでますます展開されています。
ただし、これらのシステムは、トレーニング前のデータからの連想およびフレーミングバイアスを継承し、下流タスクで不適切または不公平な出力につながります。
この作業では、改善された一般化を通じてテキスト要約でバイアスを緩和するために設計されたドメインと存在するトレーニングフレームワークであるAdvsumm(敵対的要約)を提示します。
敵対的な堅牢性に触発されたAdvsummは、シーケンスからシーケンスモデルの埋め込みレベルで勾配誘導摂動を適用する新しいターバーバーコンポーネントを導入し、入力変動に対するモデルの堅牢性を高めます。
Advsummは、要約のバイアスと政治的フレーミングのバイアスを妥協することなく、要約のバイアスを要約に効果的に減少させることを経験的に実証します。
標準的な変圧器やバック翻訳などのデータ増強技術と比較して、Advsummはベンチマークデータセット全体でより強力なバイアス緩和パフォーマンスを達成します。
要約(オリジナル)
Large Language Models (LLMs) have achieved impressive performance in text summarization and are increasingly deployed in real-world applications. However, these systems often inherit associative and framing biases from pre-training data, leading to inappropriate or unfair outputs in downstream tasks. In this work, we present AdvSumm (Adversarial Summarization), a domain-agnostic training framework designed to mitigate bias in text summarization through improved generalization. Inspired by adversarial robustness, AdvSumm introduces a novel Perturber component that applies gradient-guided perturbations at the embedding level of Sequence-to-Sequence models, enhancing the model’s robustness to input variations. We empirically demonstrate that AdvSumm effectively reduces different types of bias in summarization-specifically, name-nationality bias and political framing bias-without compromising summarization quality. Compared to standard transformers and data augmentation techniques like back-translation, AdvSumm achieves stronger bias mitigation performance across benchmark datasets.
arxiv情報
著者 | Mukur Gupta,Nikhil Reddy Varimalla,Nicholas Deas,Melanie Subbiah,Kathleen McKeown |
発行日 | 2025-06-06 17:57:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google