要約
1 クラス学習 (OCL) は、現実世界の問題が対象となるクラスが 1 つだけである場合に適用される一連の手法で構成されます。
OCL の通常の手順では、このクラスのインスタンスを構成するハイパースフィアを学習し、理想的には他のクラスからの目に見えないインスタンスを排除します。
また、さまざまな分野でグラフ表現の学習が成功しているため、グラフに対する OCL アルゴリズムがいくつか提案されています。
これらの方法では、最初にグラフを表示し、2 番目のステップでそのノードを分類する 2 段階の戦略を使用する場合があります。
一方、エンドツーエンド手法では、1 回の学習プロセスでノードを分類しながらノード表現を学習します。
グラフの OCL に関する文献にある 3 つの主なギャップを強調します。(i) OCL のカスタマイズされていない表現。
(ii) 超球パラメータ学習に対する制約の欠如。
(iii) メソッドの解釈可能性と視覚化の欠如。
我々はOne-cLass Graph Autoencoder (OLGA)を提案します。
OLGA はエンドツーエンドで、2 つの損失関数を組み合わせて関心のあるインスタンスをカプセル化しながら、グラフ ノードの表現を学習します。
対象インスタンスをカプセル化するための新しい超球損失関数を提案します。
OLGA は、この新しい超球損失とグラフ オートエンコーダ再構成損失を組み合わせて、モデル学習を改善します。
OLGA は最先端の結果を達成し、他の 6 つの方法を上回り、5 つの方法と統計的に有意な差がありました。
さらに、OLGA は、解釈可能なモデル表現の学習と結果による分類パフォーマンスを維持しながら、低次元表現を学習します。
要約(オリジナル)
One-class learning (OCL) comprises a set of techniques applied when real-world problems have a single class of interest. The usual procedure for OCL is learning a hypersphere that comprises instances of this class and, ideally, repels unseen instances from any other classes. Besides, several OCL algorithms for graphs have been proposed since graph representation learning has succeeded in various fields. These methods may use a two-step strategy, initially representing the graph and, in a second step, classifying its nodes. On the other hand, end-to-end methods learn the node representations while classifying the nodes in one learning process. We highlight three main gaps in the literature on OCL for graphs: (i) non-customized representations for OCL; (ii) the lack of constraints on hypersphere parameters learning; and (iii) the methods’ lack of interpretability and visualization. We propose One-cLass Graph Autoencoder (OLGA). OLGA is end-to-end and learns the representations for the graph nodes while encapsulating the interest instances by combining two loss functions. We propose a new hypersphere loss function to encapsulate the interest instances. OLGA combines this new hypersphere loss with the graph autoencoder reconstruction loss to improve model learning. OLGA achieved state-of-the-art results and outperformed six other methods with a statistically significant difference from five methods. Moreover, OLGA learns low-dimensional representations maintaining the classification performance with an interpretable model representation learning and results.
arxiv情報
著者 | M. P. S. Gôlo,J. G. B. M. Junior,D. F. Silva,R. M. Marcacini |
発行日 | 2024-08-26 13:48:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google