OTMatch: Improving Semi-Supervised Learning with Optimal Transport

要約

半教師あり学習は、ラベルなしデータに存在する豊富な情報を活用しながら、限られた量のラベル付きデータを効果的に利用することにより、目覚ましい進歩を遂げました。
ただし、現在のアルゴリズムでは、多くの場合、画像予測を自己トレーニング技術によって生成された特定のクラスと一致させることが優先され、その結果、これらのクラス内に存在する固有の関係が無視されます。
この論文では、最適な伝送損失関数を採用することでクラス間の意味論的な関係を活用する、OTMatch と呼ばれる新しいアプローチを紹介します。
最適な転送を利用することにより、私たちが提案する方法は、確立された最先端の方法を常に上回ります。
特に、現在の最先端の手法である FreeMatch と比較して、精度が一定の割合で大幅に向上していることが観察されました。
OTMatch は、クラスあたり 1 ラベルの CIFAR-10、クラスあたり 4 ラベルの STL-10、およびクラスあたり 100 ラベルの ImageNet で、FreeMatch と比較して、それぞれ 3.18%、3.46%、および 1.28% のエラー率削減を達成します。
これは、半教師あり設定での学習パフォーマンスを向上させるために意味論的関係を利用する際の私たちのアプローチの有効性と優位性を示しています。

要約(オリジナル)

Semi-supervised learning has made remarkable strides by effectively utilizing a limited amount of labeled data while capitalizing on the abundant information present in unlabeled data. However, current algorithms often prioritize aligning image predictions with specific classes generated through self-training techniques, thereby neglecting the inherent relationships that exist within these classes. In this paper, we present a new approach called OTMatch, which leverages semantic relationships among classes by employing an optimal transport loss function. By utilizing optimal transport, our proposed method consistently outperforms established state-of-the-art methods. Notably, we observed a substantial improvement of a certain percentage in accuracy compared to the current state-of-the-art method, FreeMatch. OTMatch achieves 3.18%, 3.46%, and 1.28% error rate reduction over FreeMatch on CIFAR-10 with 1 label per class, STL-10 with 4 labels per class, and ImageNet with 100 labels per class, respectively. This demonstrates the effectiveness and superiority of our approach in harnessing semantic relationships to enhance learning performance in a semi-supervised setting.

arxiv情報

著者 Zhiquan Tan,Kaipeng Zheng,Weiran Huang
発行日 2023-10-26 15:01:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク