Contextual Breach: Assessing the Robustness of Transformer-based QA Models

要約

コンテキスト質問応答モデルは、現実世界のシナリオで一般的に観察される、入力コンテキストに対する敵対的な摂動の影響を受けやすくなります。
これらの敵対的なノイズは、テキスト入力を歪ませることでモデルのパフォーマンスを低下させるように設計されています。
7 つの異なるタイプの敵対的ノイズをコンテキストに組み込んだ独自のデータセットを導入します。それぞれが SQuAD データセットの 5 つの異なる強度レベルで適用されます。
堅牢性を定量化するために、さまざまなノイズの種類とレベルにわたるモデルのパフォーマンスを評価するための標準化された尺度を提供する堅牢性メトリクスを利用します。
トランスフォーマーベースの質問応答モデルの実験により、堅牢性の脆弱性と、現実的なテキスト入力におけるモデルのパフォーマンスに関する重要な洞察が明らかになりました。

要約(オリジナル)

Contextual question-answering models are susceptible to adversarial perturbations to input context, commonly observed in real-world scenarios. These adversarial noises are designed to degrade the performance of the model by distorting the textual input. We introduce a unique dataset that incorporates seven distinct types of adversarial noise into the context, each applied at five different intensity levels on the SQuAD dataset. To quantify the robustness, we utilize robustness metrics providing a standardized measure for assessing model performance across varying noise types and levels. Experiments on transformer-based question-answering models reveal robustness vulnerabilities and important insights into the model’s performance in realistic textual input.

arxiv情報

著者 Asir Saadat,Nahian Ibn Asad,Md Farhan Ishmam
発行日 2024-09-18 16:21:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク