Improving Intrusion Detection with Domain-Invariant Representation Learning in Latent Space

要約

ドメインの一般化は、豊富なトレーニング データとラベルを備えた複数の関連ドメインからの知識を活用して、目に見えないディストリビューション内 (IN) およびディストリビューション外 (OOD) ドメインの推論を強化することに重点を置いています。
私たちの研究では、マルチタスク学習を使用した 2 段階表現学習手法を導入します。
このアプローチは、ネイティブとクロスドメインの両方を含む複数のドメインにまたがる機能から潜在スペースを開拓し、IN および OOD テリトリーへの一般化を拡大することを目的としています。
さらに、事前空間と潜在空間の間の相互情報を最小限に抑え、偽の特徴相関を効果的に無相関化することにより、潜在空間を解きほぐすことを試みます。
共同最適化により、ドメイン不変特徴の学習が促進されます。
私たちは、目に見えない IN セットと OOD セットの両方で標準的な分類メトリクスを使用して、複数のサイバーセキュリティ データセットにわたるモデルの有効性を評価し、その結果を現代のドメイン一般化手法と並べます。

要約(オリジナル)

Domain generalization focuses on leveraging knowledge from multiple related domains with ample training data and labels to enhance inference on unseen in-distribution (IN) and out-of-distribution (OOD) domains. In our study, we introduce a two-phase representation learning technique using multi-task learning. This approach aims to cultivate a latent space from features spanning multiple domains, encompassing both native and cross-domains, to amplify generalization to IN and OOD territories. Additionally, we attempt to disentangle the latent space by minimizing the mutual information between the prior and latent space, effectively de-correlating spurious feature correlations. Collectively, the joint optimization will facilitate domain-invariant feature learning. We assess the model’s efficacy across multiple cybersecurity datasets, using standard classification metrics on both unseen IN and OOD sets, and juxtapose the results with contemporary domain generalization methods.

arxiv情報

著者 Padmaksha Roy,Tyler Cody,Himanshu Singhal,Kevin Choi,Ming Jin
発行日 2024-04-23 18:37:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク