Generative Job Recommendations with Large Language Model

要約

オンライン採用サービスの急速な発展により、求職プロセスを合理化するために推薦システムの利用が促進されています。
現在の仕事の推奨では、主に、協調フィルタリングまたは個人と仕事のマッチング戦略のいずれかを導入しています。
ただし、これらのモデルは「ブラックボックス」システムとして動作する傾向があり、求職者に説明可能なガイダンスを提供する能力がありません。
さらに、従来のマッチングベースのレコメンデーション手法は、データベース内の既存の求人を検索してランク付けすることに限定されており、総合的なキャリア AI アドバイザーとしての可能性は限られていました。
この目的を達成するために、ここでは、大規模言語モデル (LLM) の分野における最近の進歩に触発された新しいアプローチである GIRL (GeneratIve job Recommendation based on Large language models) を紹介します。
最初に、教師あり微調整 (SFT) 戦略を採用し、求職者の履歴書 (CV) に基づいて適切な職務記述書 (JD) を作成するように LLM ベースのジェネレーターに指示します。
さらに、報酬モデルとして CV と JD の一致度を評価できるモデルをトレーニングすることを提案し、近接ポリシー最適化 (PPO) ベースの強化学習 (RL) 手法を使用してジェネレーターをさらに微調整します。
これにより、ジェネレーターと採用担当者のフィードバックが調整され、雇用主の好みに合わせて出力が調整されます。
特に、GIRL は求職者中心の生成モデルとして機能し、候補者セットを必要とせずに仕事の提案を提供します。
この機能は、生成されたコンテンツで求職機能を補完することにより、既存の求人推奨モデルのパフォーマンスも向上します。
大規模な現実世界のデータセットに対する広範な実験により、私たちはアプローチの実質的な有効性を実証しました。
GIRL は、求人推薦システムにパラダイムシフトするアプローチを導入し、よりパーソナライズされた包括的な求職体験を促進すると信じています。

要約(オリジナル)

The rapid development of online recruitment services has encouraged the utilization of recommender systems to streamline the job seeking process. Predominantly, current job recommendations deploy either collaborative filtering or person-job matching strategies. However, these models tend to operate as ‘black-box’ systems and lack the capacity to offer explainable guidance to job seekers. Moreover, conventional matching-based recommendation methods are limited to retrieving and ranking existing jobs in the database, restricting their potential as comprehensive career AI advisors. To this end, here we present GIRL (GeneratIve job Recommendation based on Large language models), a novel approach inspired by recent advancements in the field of Large Language Models (LLMs). We initially employ a Supervised Fine-Tuning (SFT) strategy to instruct the LLM-based generator in crafting suitable Job Descriptions (JDs) based on the Curriculum Vitae (CV) of a job seeker. Moreover, we propose to train a model which can evaluate the matching degree between CVs and JDs as a reward model, and we use Proximal Policy Optimization (PPO)-based Reinforcement Learning (RL) method to further fine-tine the generator. This aligns the generator with recruiter feedback, tailoring the output to better meet employer preferences. In particular, GIRL serves as a job seeker-centric generative model, providing job suggestions without the need of a candidate set. This capability also enhances the performance of existing job recommendation models by supplementing job seeking features with generated content. With extensive experiments on a large-scale real-world dataset, we demonstrate the substantial effectiveness of our approach. We believe that GIRL introduces a paradigm-shifting approach to job recommendation systems, fostering a more personalized and comprehensive job-seeking experience.

arxiv情報

著者 Zhi Zheng,Zhaopeng Qiu,Xiao Hu,Likang Wu,Hengshu Zhu,Hui Xiong
発行日 2023-07-05 09:58:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク