要約
我々は、テキストベースのレコメンデーション用に、ドメインに適応し、完全にトレーニングされた最初の大規模言語モデルである RecGPT-7B と、その命令に従うバリアントである RecGPT-7B-Instruct を紹介します。
評価予測および逐次推奨タスクに関する実験結果は、私たちのモデル RecGPT-7B-Instruct が以前の強力なベースラインを上回るパフォーマンスを示していることを示しています。
今後の研究やテキストベースのレコメンデーションにおける下流アプリケーションを促進するために、RecGPT モデルとその事前トレーニングおよび微調整データセットをリリースします。
RecGPT モデルとデータセットへの公開「ハギングフェイス」リンクは、https://github.com/VinAIResearch/RecGPT から入手できます。
要約(オリジナル)
We present the first domain-adapted and fully-trained large language model, RecGPT-7B, and its instruction-following variant, RecGPT-7B-Instruct, for text-based recommendation. Experimental results on rating prediction and sequential recommendation tasks show that our model, RecGPT-7B-Instruct, outperforms previous strong baselines. We are releasing our RecGPT models as well as their pre-training and fine-tuning datasets to facilitate future research and downstream applications in text-based recommendation. Public ‘huggingface’ links to our RecGPT models and datasets are available at: https://github.com/VinAIResearch/RecGPT
arxiv情報
著者 | Hoang Ngo,Dat Quoc Nguyen |
発行日 | 2024-05-21 12:16:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google