Faithful Path Language Modeling for Explainable Recommendation over Knowledge Graph

要約

レコメンダー システムにおけるパス推論と言語モデリングの統合は、説明可能性を高めることが期待されていますが、提供される説明の信頼性に関してはしばしば困難を伴います。
従来のモデルは、エンティティとリレーションを交互に生成するようにアーキテクチャを変更します (たとえば、モデル内のそれぞれに個別のヘッドを使用します)。これでは、実際のナレッジ グラフ (KG) 接続を反映するパスの信頼性が保証されません。
この不整合により、破損したパスが生成され、ユーザーの不信感につながる可能性があります。
これに対処するために、Knowledge Graph Constraint Decoding (KGCD) メカニズムを革新する PEARLM (言語モデリングに基づいた Path-based Explainable-Accurate Recommender) を導入します。
このメカニズムは、基礎となるモデル アーキテクチャに依存せず、デコード レベルで有効な KG 接続の遵守を強制することで、破損したパスの発生率をゼロにします。
KG パスからの直接トークン埋め込み学習を統合することにより、PEARLM は、もっともらしい検証可能な説明の生成を保証するだけでなく、推奨精度も大幅に向上します。
私たちは、説明パスの完全性を定量化する新しく提案された指標を使用して、厳密な経験的評価を通じてアプローチの有効性を検証します。
私たちの結果は、既存の方法に比べて大幅な改善が見られ、不正確なパスの生成を効果的に排除し、説明可能なレコメンダー システムの最先端を進歩させたことを示しています。

要約(オリジナル)

The integration of path reasoning with language modeling in recommender systems has shown promise for enhancing explainability but often struggles with the authenticity of the explanations provided. Traditional models modify their architecture to produce entities and relations alternately–for example, employing separate heads for each in the model–which does not ensure the authenticity of paths reflective of actual Knowledge Graph (KG) connections. This misalignment can lead to user distrust due to the generation of corrupted paths. Addressing this, we introduce PEARLM (Path-based Explainable-Accurate Recommender based on Language Modelling), which innovates with a Knowledge Graph Constraint Decoding (KGCD) mechanism. This mechanism ensures zero incidence of corrupted paths by enforcing adherence to valid KG connections at the decoding level, agnostic of the underlying model architecture. By integrating direct token embedding learning from KG paths, PEARLM not only guarantees the generation of plausible and verifiable explanations but also highly enhances recommendation accuracy. We validate the effectiveness of our approach through a rigorous empirical assessment, employing a newly proposed metric that quantifies the integrity of explanation paths. Our results demonstrate a significant improvement over existing methods, effectively eliminating the generation of inaccurate paths and advancing the state-of-the-art in explainable recommender systems.

arxiv情報

著者 Giacomo Balloccu,Ludovico Boratto,Christian Cancedda,Gianni Fenu,Mirko Marras
発行日 2024-04-30 12:24:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR, cs.LG パーマリンク