Adaptive Self-Supervised Learning Strategies for Dynamic On-Device LLM Personalization

要約

大規模言語モデル (LLM) はテクノロジーとの対話方法に革命をもたらしましたが、個々のユーザーの好みに合わせてパーソナライズすることは、特にオンデバイス アプリケーションにおいて依然として大きな課題です。
従来の方法はラベル付きデータセットに大きく依存することが多く、リソースを大量に消費する可能性があります。
これらの問題に対処するために、自己教師あり学習手法を利用して LLM を動的にパーソナライズする適応自己教師あり学習戦略 (ASLS) を紹介します。
このフレームワークは、インタラクション データを収集するためのユーザー プロファイリング レイヤーと、リアルタイム モデルの微調整のためのニューラル アダプテーション レイヤーで構成されます。
この革新的なアプローチにより、ユーザーのフィードバックからの継続的な学習が可能になり、モデルがユーザー固有のコンテキストと密接に一致する応答を生成できるようになります。
ASLS の適応メカニズムにより、計算要求が最小限に抑えられ、パーソナライゼーションの効率が向上します。
さまざまなユーザー シナリオにわたる実験結果は、ユーザー エンゲージメントと満足度の向上における ASLS の優れたパフォーマンスを示しており、LLM をデバイス上の応答性の高いコンテキスト認識システムとして再定義する可能性を強調しています。

要約(オリジナル)

Large language models (LLMs) have revolutionized how we interact with technology, but their personalization to individual user preferences remains a significant challenge, particularly in on-device applications. Traditional methods often depend heavily on labeled datasets and can be resource-intensive. To address these issues, we present Adaptive Self-Supervised Learning Strategies (ASLS), which utilizes self-supervised learning techniques to personalize LLMs dynamically. The framework comprises a user profiling layer for collecting interaction data and a neural adaptation layer for real-time model fine-tuning. This innovative approach enables continuous learning from user feedback, allowing the model to generate responses that align closely with user-specific contexts. The adaptive mechanisms of ASLS minimize computational demands and enhance personalization efficiency. Experimental results across various user scenarios illustrate the superior performance of ASLS in boosting user engagement and satisfaction, highlighting its potential to redefine LLMs as highly responsive and context-aware systems on-device.

arxiv情報

著者 Rafael Mendoza,Isabella Cruz,Richard Liu,Aarav Deshmukh,David Williams,Jesscia Peng,Rohan Iyer
発行日 2024-09-25 14:35:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク