Large Language Model Enhanced Hard Sample Identification for Denoising Recommendation

要約

レコメンダー システムの構築によく使用される暗黙的なフィードバックは、ミスクリックや位置の偏りなどの要因によるノイズに直面することは避けられません。
これまでの研究では、より高い損失値などの発散パターンに基づいてノイズの多いサンプルを特定し、サンプルの削除や再重み付けによってノイズを軽減することで、この問題を軽減しようと試みてきました。
進歩にもかかわらず、既存のアプローチはハード サンプルとノイズ サンプルを区別するのに苦労していることが観察されています。ハード サンプルとノイズ サンプルは類似したパターンを示すことが多く、そのためノイズ除去の推奨における有効性が制限されているからです。
この課題に対処するために、私たちは大規模言語モデル拡張ハード サンプル デノイズ (LLMHD) フレームワークを提案します。
具体的には、LLM ベースのスコアラーを構築して、ユーザーの好みと項目の意味論的な一貫性を評価します。これは、要約された過去のユーザー インタラクションに基づいて定量化されます。
結果として得られるスコアは、ポイントごとまたはペアごとのトレーニング目標のサンプルの硬度を評価するために使用されます。
効率を確保するために、スコアリング前に潜在的なハードサンプルをフィルタリングする分散ベースのサンプルプルーニング戦略を導入します。
さらに、誤検知のユーザーとアイテムのインタラクションによって偏りがある可能性のある、要約されたユーザーの嗜好を継続的に改良するように設計された反復的な嗜好更新モジュールを提案します。
3 つの現実世界のデータセットと 4 つのバックボーン レコメンダーに関する広範な実験により、私たちのアプローチの有効性が実証されました。

要約(オリジナル)

Implicit feedback, often used to build recommender systems, unavoidably confronts noise due to factors such as misclicks and position bias. Previous studies have attempted to alleviate this by identifying noisy samples based on their diverged patterns, such as higher loss values, and mitigating the noise through sample dropping or reweighting. Despite the progress, we observe existing approaches struggle to distinguish hard samples and noise samples, as they often exhibit similar patterns, thereby limiting their effectiveness in denoising recommendations. To address this challenge, we propose a Large Language Model Enhanced Hard Sample Denoising (LLMHD) framework. Specifically, we construct an LLM-based scorer to evaluate the semantic consistency of items with the user preference, which is quantified based on summarized historical user interactions. The resulting scores are used to assess the hardness of samples for the pointwise or pairwise training objectives. To ensure efficiency, we introduce a variance-based sample pruning strategy to filter potential hard samples before scoring. Besides, we propose an iterative preference update module designed to continuously refine summarized user preference, which may be biased due to false-positive user-item interactions. Extensive experiments on three real-world datasets and four backbone recommenders demonstrate the effectiveness of our approach.

arxiv情報

著者 Tianrui Song,Wenshuo Chao,Hao Liu
発行日 2024-09-16 14:57:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク