要約
人工知能において、良い結果を達成したいモデルは、大量の高品質のデータと切り離すことができません。
これは特に改ざん検出の分野に当てはまります。
本稿では、高品質な改ざん画像を取得するための修正トータルバリエーションノイズ低減法を提案する。
Baidu PS Bar から元の画像と改ざんされた画像を自動的にクロールします。
Baidu PS Bar は、ネット友達が無数の改ざんされた画像を投稿する Web サイトです。
元の画像と改ざんされた画像を差し引くと、改ざんされた領域が強調表示されます。
ただし、最終的なプリントにはかなりのノイズがあるため、これらの画像を深層学習モデルで直接使用することはできません。
私たちの改良された全変動ノイズ低減手法は、この問題を解決することを目的としています。
細い文字が多いため、開閉操作により文字情報が失われやすくなります。
MSER (最大安定極領域) および NMS (非最大抑制) テクノロジーを使用してテキスト情報を抽出します。
次に、修正されたトータルバリエーションノイズリダクションテクノロジーを使用して、減算された画像を処理します。
最後に画像と文字情報を加算することでノイズの少ない画像を得ることができます。
そして、このアイデアではテキスト情報も大部分が保持されます。
この方法で生成されたデータセットは深層学習モデルで使用でき、モデルがより良い結果を達成するのに役立ちます。
要約(オリジナル)
In artificial intelligence, any model that wants to achieve a good result is inseparable from a large number of high-quality data. It is especially true in the field of tamper detection. This paper proposes a modified total variation noise reduction method to acquire high-quality tampered images. We automatically crawl original and tampered images from the Baidu PS Bar. Baidu PS Bar is a website where net friends post countless tampered images. Subtracting the original image with the tampered image can highlight the tampered area. However, there is also substantial noise on the final print, so these images can’t be directly used in the deep learning model. Our modified total variation noise reduction method is aimed at solving this problem. Because a lot of text is slender, it is easy to lose text information after the opening and closing operation. We use MSER (Maximally Stable Extremal Regions) and NMS (Non-maximum Suppression) technology to extract text information. And then use the modified total variation noise reduction technology to process the subtracted image. Finally, we can obtain an image with little noise by adding the image and text information. And the idea also largely retains the text information. Datasets generated in this way can be used in deep learning models, and they will help the model achieve better results.
arxiv情報
著者 | Xinyu Yang,Jizhe Zhou |
発行日 | 2023-10-23 15:40:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google