Unsupervised Non-transferable Text Classification

要約

優れたディープ ラーニング モデルのトレーニングには、大量のデータとコンピューティング リソースが必要であり、結果として得られるニューラル モデルは貴重な知的財産となります。
ニューラル ネットワークが不当に悪用されるのを防ぐために、特定のターゲット ドメインでモデルの一般化能力を低下させる非転送可能学習が提案されています。
ただし、既存のアプローチでは、取得が困難なターゲット ドメインのラベル付きデータが必要です。
さらに、ターゲット ドメインにアクセスするモデルの機能を回復するメカニズムもありません。
この論文では、注釈付きのターゲットドメインデータを必要としない、テキスト分類タスクのための新しい教師なし転送不可能な学習方法を提案します。
さらに、ターゲットドメインへのアクセスを回復するためのアプローチに秘密鍵コンポーネントを導入し、そのための明示的方法と暗黙的方法の両方を設計します。
広範な実験により、私たちのアプローチの有効性が実証されています。

要約(オリジナル)

Training a good deep learning model requires substantial data and computing resources, which makes the resulting neural model a valuable intellectual property. To prevent the neural network from being undesirably exploited, non-transferable learning has been proposed to reduce the model generalization ability in specific target domains. However, existing approaches require labeled data for the target domain which can be difficult to obtain. Furthermore, they do not have the mechanism to still recover the model’s ability to access the target domain. In this paper, we propose a novel unsupervised non-transferable learning method for the text classification task that does not require annotated target domain data. We further introduce a secret key component in our approach for recovering the access to the target domain, where we design both an explicit and an implicit method for doing so. Extensive experiments demonstrate the effectiveness of our approach.

arxiv情報

著者 Guangtao Zeng,Wei Lu
発行日 2023-02-19 13:40:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク