要約
言語ステガナリシス(LS)タスクは、テキストに秘密情報が含まれているかどうかを検出することを目的としている。既存のLS手法はディープラーニングモデル設計に焦点を当てており、理想的なデータでは優れた結果を達成している。しかし、それらはユニークなユーザー特性を見落としており、ソーシャルネットワークにおける弱いパフォーマンスにつながっている。また、検知をさらに複雑にするいくつかのステゴがここにある。我々はUP4LSを提案する。UP4LSは、現実的なシナリオでLSを強化するためのユーザープロファイルを持つフレームワークである。プロファイルを構築するために、執筆習慣のような3種類のユーザー属性が探索される。各属性に対して、特定の特徴抽出モジュールが設計される。抽出された特徴は、改善手法のディープラーニングモデルを介して、高次元ユーザ特徴にマッピングされる。コンテンツ特徴は言語モデルによって抽出される。そして、ユーザー特徴とコンテンツ特徴が統合される。既存の手法は、深層学習モデルを変更することなく、UP4LSフレームワークを追加することで、LSの結果を改善することができる。実験によると、UP4LSは現実的なシナリオにおいてLSタスクのベースラインの性能を大幅に向上させることができ、全体のAccは25%、F1は51%向上し、SOTAの結果も向上した。特にステゴが少ない場合に顕著な改善が見られる。さらに、UP4LSは、効率的なLSへの関連タスクSOTA手法のためのステージも設定する。
要約(オリジナル)
Linguistic steganalysis (LS) tasks aim to detect whether a text contains secret information. Existing LS methods focus on the deep-learning model design and they achieve excellent results in ideal data. However, they overlook the unique user characteristics, leading to weak performance in social networks. And a few stegos here that further complicate detection. We propose the UP4LS, a framework with the User Profile for enhancing LS in realistic scenarios. Three kinds of user attributes like writing habits are explored to build the profile. For each attribute, the specific feature extraction module is designed. The extracted features are mapped to high-dimensional user features via the deep-learning model of the method to be improved. The content feature is extracted by the language model. Then user and content features are integrated. Existing methods can improve LS results by adding the UP4LS framework without changing their deep-learning models. Experiments show that UP4LS can significantly enhance the performance of LS-task baselines in realistic scenarios, with the overall Acc increased by 25%, F1 increased by 51%, and SOTA results. The improvement is especially pronounced in fewer stegos. Additionally, UP4LS also sets the stage for the related-task SOTA methods to efficient LS.
arxiv情報
著者 | Yihao Wang,Ruiqi Song,Lingxiao Li,Yifan Tang,Ru Zhang,Jianyi Liu |
発行日 | 2024-06-03 07:42:15+00:00 |
arxivサイト | arxiv_id(pdf) |