Make Large Language Model a Better Ranker

要約

大規模言語モデル (LLM) は、さまざまな分野にわたって堅牢な機能を実証し、LLM で強化されたレコメンダー システム (RS) のパラダイム シフトにつながります。
これまでの研究は、ポイント単位およびペア単位の推奨パラダイムに焦点を当てていますが、これらは計算コストが高いため、LLM ベースのレコメンダーにとって非効率的です。
ただし、既存のリストベースのアプローチも、ランク付けの目的と次のトークンの予測の間の不整合により、ランク付けタスクでは不十分です。
さらに、これらの LLM ベースの方法は、特に評価の規模を考慮すると、候補者間の順序関係に効果的に対処するのが困難です。
これらの課題に対処するために、このホワイトペーパーでは、Aligned Listwise Rank Objectives (ALRO) を備えた大規模言語モデル フレームワークを紹介します。
ALRO は、LLM の機能とランク付けタスクの微妙な要件の間のギャップを埋めるように設計されています。
具体的には、ALRO は、順序関係を最適化するために設計されたラムダ損失のカスタマイズされた適応であるソフト ラムダ損失を導入することにより、リスト形式で明示的なフィードバックを採用します。
このメカニズムにより、より正確な最適化目標が提供され、ランキング プロセスが強化されます。
さらに、ALRO には、推論中に追加の計算負荷を課すことなく、生成モデルで一般的な問題である位置バイアスに対処する、順列に敏感な学習メカニズムが組み込まれています。
私たちの評価研究により、ALRO が既存の埋め込みベースのレコメンデーション手法と LLM ベースのレコメンデーション ベースラインの両方を上回るパフォーマンスを示していることが明らかになりました。

要約(オリジナル)

Large Language Models (LLMs) demonstrate robust capabilities across various fields, leading to a paradigm shift in LLM-enhanced Recommender System (RS). Research to date focuses on point-wise and pair-wise recommendation paradigms, which are inefficient for LLM-based recommenders due to high computational costs. However, existing list-wise approaches also fall short in ranking tasks due to misalignment between ranking objectives and next-token prediction. Moreover, these LLM-based methods struggle to effectively address the order relation among candidates, particularly given the scale of ratings. To address these challenges, this paper introduces the large language model framework with Aligned Listwise Ranking Objectives (ALRO). ALRO is designed to bridge the gap between the capabilities of LLMs and the nuanced requirements of ranking tasks. Specifically, ALRO employs explicit feedback in a listwise manner by introducing soft lambda loss, a customized adaptation of lambda loss designed for optimizing order relations. This mechanism provides more accurate optimization goals, enhancing the ranking process. Additionally, ALRO incorporates a permutation-sensitive learning mechanism that addresses position bias, a prevalent issue in generative models, without imposing additional computational burdens during inference. Our evaluative studies reveal that ALRO outperforms both existing embedding-based recommendation methods and LLM-based recommendation baselines.

arxiv情報

著者 Wenshuo Chao,Zhi Zheng,Hengshu Zhu,Hao Liu
発行日 2024-06-24 13:22:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, cs.LG パーマリンク