要約
AIツールが合成コンテンツを簡単に生成し、広めることができるため、操作されたテキストと画像をブレンドする偽情報の検出はますます困難になっています。
ほとんどの既存のAI安全ベンチマークは、単一のモダリティの誤った情報(つまり、欺くことを意図せずに共有された誤ったコンテンツ)に焦点を当てていますが、信頼できるニュースを模倣する圧力や陰謀理論などの意図的なマルチモーダルの偽情報は、ほとんど許されていません。
Unimodal(テキストのみ)とマルチモーダル(テキスト +画像)の両方のディスフォーメーション検出の両方をサポートする最初の大規模リソースであるビジョン言語ディスフォーム検出ベンチマーク(Vldbench)を紹介します。
Vldbenchは、58のニュースアウトレットからキュレーションされた13のカテゴリにわたって、約62,000のラベル付きテキストイメージペアで構成されています。
半自動パイプラインに続いて専門家のレビューを使用して、22人のドメインの専門家が500時間以上投資して、大幅なアノテーター間契約で高品質の注釈を作成しました。
Vldbenchでの最先端の大型言語モデル(LLMS)およびビジョン言語モデル(VLM)の評価は、視覚的なキューを組み込むことで、テキストのみのモデルで検出の精度が5〜35パーセントポイント改善することを示しています。
Vldbenchは、評価、微調整、および堅牢性テストのためのデータとコードを提供し、偽情報分析をサポートします。
AIガバナンスフレームワーク(MIT AIリスクリポジトリなど)と整合性に開発されたVldbenchは、マルチモーダルメディアで信頼できる偽情報検出を進めるための原則的な基盤を提供します。
プロジェクト:https://vectorinstitute.github.io/vldbench/ dataset:https://huggingface.co/datasets/vector-institute/vldbenchコード:https://github.com/vectorinstitute/vldbench
要約(オリジナル)
Detecting disinformation that blends manipulated text and images has become increasingly challenging, as AI tools make synthetic content easy to generate and disseminate. While most existing AI safety benchmarks focus on single modality misinformation (i.e., false content shared without intent to deceive), intentional multimodal disinformation, such as propaganda or conspiracy theories that imitate credible news, remains largely unaddressed. We introduce the Vision-Language Disinformation Detection Benchmark (VLDBench), the first large-scale resource supporting both unimodal (text-only) and multimodal (text + image) disinformation detection. VLDBench comprises approximately 62,000 labeled text-image pairs across 13 categories, curated from 58 news outlets. Using a semi-automated pipeline followed by expert review, 22 domain experts invested over 500 hours to produce high-quality annotations with substantial inter-annotator agreement. Evaluations of state-of-the-art Large Language Models (LLMs) and Vision-Language Models (VLMs) on VLDBench show that incorporating visual cues improves detection accuracy by 5 to 35 percentage points over text-only models. VLDBench provides data and code for evaluation, fine-tuning, and robustness testing to support disinformation analysis. Developed in alignment with AI governance frameworks (e.g., the MIT AI Risk Repository), VLDBench offers a principled foundation for advancing trustworthy disinformation detection in multimodal media. Project: https://vectorinstitute.github.io/VLDBench/ Dataset: https://huggingface.co/datasets/vector-institute/VLDBench Code: https://github.com/VectorInstitute/VLDBench
arxiv情報
著者 | Shaina Raza,Ashmal Vayani,Aditya Jain,Aravind Narayanan,Vahid Reza Khazaie,Syed Raza Bashir,Elham Dolatabadi,Gias Uddin,Christos Emmanouilidis,Rizwan Qureshi,Mubarak Shah |
発行日 | 2025-05-30 17:17:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google