要約
教師なしドメイン適応回帰 (DAR) は、回帰問題のラベル付きソース データセットとラベルなしターゲット データセット間のドメイン ギャップを埋めることを目的としています。
最近の研究は主に、ソースとターゲットの特徴間の不一致を最小限に抑えることによって、深い特徴エンコーダーを学習することに焦点を当てています。
この作業では、深いドメイン適応コンテキストで線形リグレッサーに対する閉形式の通常の最小二乗法 (OLS) ソリューションを分析することにより、DAR 問題の異なる視点を提示します。
元の機能埋め込み空間を調整するのではなく、機能の逆グラム行列を調整することを提案します。これは、OLS ソリューションでのその存在と、機能相関をキャプチャするグラム行列の能力によって動機付けられます。
具体的には、疑似逆低ランク プロパティを活用して、2 つのドメインの疑似逆グラム行列によって生成された選択された部分空間のスケールと角度を揃える、シンプルでありながら効果的な DAR メソッドを提案します。
3 つのドメイン適応回帰ベンチマークで手法を評価します。
実験結果は、私たちの方法が最先端のパフォーマンスを達成することを示しています。
コードは https://github.com/ismailnejjar/DARE-GRAM で入手できます。
要約(オリジナル)
Unsupervised Domain Adaptation Regression (DAR) aims to bridge the domain gap between a labeled source dataset and an unlabelled target dataset for regression problems. Recent works mostly focus on learning a deep feature encoder by minimizing the discrepancy between source and target features. In this work, we present a different perspective for the DAR problem by analyzing the closed-form ordinary least square~(OLS) solution to the linear regressor in the deep domain adaptation context. Rather than aligning the original feature embedding space, we propose to align the inverse Gram matrix of the features, which is motivated by its presence in the OLS solution and the Gram matrix’s ability to capture the feature correlations. Specifically, we propose a simple yet effective DAR method which leverages the pseudo-inverse low-rank property to align the scale and angle in a selected subspace generated by the pseudo-inverse Gram matrix of the two domains. We evaluate our method on three domain adaptation regression benchmarks. Experimental results demonstrate that our method achieves state-of-the-art performance. Our code is available at https://github.com/ismailnejjar/DARE-GRAM.
arxiv情報
著者 | Ismail Nejjar,Qin Wang,Olga Fink |
発行日 | 2023-03-23 15:04:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google