RecGPT: Generative Pre-training for Text-based Recommendation

要約

我々は、テキストベースのレコメンデーション用に、ドメインに適応し、完全にトレーニングされた最初の大規模言語モデルである RecGPT-7B と、その命令に従うバリアントである RecGPT-7B-Instruct を紹介します。
評価予測および逐次推奨タスクに関する実験結果は、私たちのモデル RecGPT-7B-Instruct が以前の強力なベースラインを上回るパフォーマンスを示していることを示しています。
今後の研究やテキストベースのレコメンデーションにおける下流アプリケーションを促進するために、RecGPT モデルとその事前トレーニングおよび微調整データセットをリリースします。
RecGPT モデルとデータセットへの公開「ハギングフェイス」リンクは、https://github.com/VinAIResearch/RecGPT から入手できます。

要約(オリジナル)

We present the first domain-adapted and fully-trained large language model, RecGPT-7B, and its instruction-following variant, RecGPT-7B-Instruct, for text-based recommendation. Experimental results on rating prediction and sequential recommendation tasks show that our model, RecGPT-7B-Instruct, outperforms previous strong baselines. We are releasing our RecGPT models as well as their pre-training and fine-tuning datasets to facilitate future research and downstream applications in text-based recommendation. Public ‘huggingface’ links to our RecGPT models and datasets are available at: https://github.com/VinAIResearch/RecGPT

arxiv情報

著者 Hoang Ngo,Dat Quoc Nguyen
発行日 2024-05-21 12:16:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク