Unsupervised Domain-adaptive Hash for Networks

要約

実世界の膨大なデータは大規模なネットワークで自然に表現されるため、効率的かつ効果的な学習アルゴリズムが求められている。一方で、ラベルが存在しないネットワークも存在するため、ラベルのないネットワークに適応するアルゴリズムが求められている。領域適応型ハッシュ学習は、検索時間と記憶容量の両方において低コストであるため、コンピュータビジョンのコミュニティでは多くの実用的なタスクで大きな成功を収めている。しかし、複数領域のネットワークに適用されたことはない。本研究では、このギャップを埋めるために、教師なしドメイン適応型ハッシュ学習法(UDAHと呼ぶ)を開発する。具体的には、以下の4つの要素(タスクに特化しつつも相関のある要素)を開発する。(1) hard groupwise contrastive lossによるネットワーク構造の保存、(2) Relaxation-free supervised hashing、(3) cross-domain intersected discriminator、(4) semantic center alignmentである。我々は、リンク予測、ノード分類、近隣推薦を含む様々なタスクにおいて、本手法の有効性と効率性を評価するために、幅広い実験を行った。その結果、本手法はすべてのタスクにおいて、従来の離散的埋め込み手法よりも優れた性能を達成することが示された。

要約(オリジナル)

Abundant real-world data can be naturally represented by large-scale networks, which demands efficient and effective learning algorithms. At the same time, labels may only be available for some networks, which demands these algorithms to be able to adapt to unlabeled networks. Domain-adaptive hash learning has enjoyed considerable success in the computer vision community in many practical tasks due to its lower cost in both retrieval time and storage footprint. However, it has not been applied to multiple-domain networks. In this work, we bridge this gap by developing an unsupervised domain-adaptive hash learning method for networks, dubbed UDAH. Specifically, we develop four {task-specific yet correlated} components: (1) network structure preservation via a hard groupwise contrastive loss, (2) relaxation-free supervised hashing, (3) cross-domain intersected discriminators, and (4) semantic center alignment. We conduct a wide range of experiments to evaluate the effectiveness and efficiency of our method on a range of tasks including link prediction, node classification, and neighbor recommendation. Our evaluation results demonstrate that our model achieves better performance than the state-of-the-art conventional discrete embedding methods over all the tasks.

arxiv情報

著者 Tao He,Lianli Gao,Jingkuan Song,Yuan-Fang Li
発行日 2022-09-07 08:33:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, cs.SI パーマリンク