LIMP: Large Language Model Enhanced Intent-aware Mobility Prediction

要約

人間の移動予測は都市計画や交通管理などのアプリケーションに不可欠ですが、人間の行動の背後には複雑で、多くの場合暗黙の意図があるため、依然として困難です。
既存のモデルは主に時空間パターンに焦点を当てており、動きを支配する根本的な意図にはあまり注意を払っていません。
大規模言語モデル (LLM) の最近の進歩により、常識的な推論をモビリティ予測に統合するための有望な代替研究角度が提供されます。
ただし、LLM はモビリティ意図推論用にネイティブに構築されておらず、スケーラビリティの問題や時空間モデルとの統合の困難にも直面しているため、これは簡単な問題ではありません。
これらの課題に対処するために、私たちは新しい LIMP (LLMs for Intent-ware Mobility Prediction) フレームワークを提案します。
具体的には、LIMP は「Analyze-Abstract-Infer」(A2I) エージェント ワークフローを導入して、モビリティの意図を推論するための LLM の常識的な推論能力を解き放ちます。
さらに、商用 LLM から小規模なオープンソース言語モデルに推論能力を移すための効率的な微調整スキームを設計し、数百万のモビリティ レコードに対する LIMP のスケーラビリティを確保します。
さらに、LLM の意図推論能力を効果的に活用するために、トランスフォーマーベースの意図認識モビリティ予測モデルを提案します。
2 つの現実世界のデータセットで評価したところ、LIMP はベースライン モデルを大幅に上回り、次の場所の予測と効果的な意図推論の精度が向上していることが実証されました。
意図を認識したモビリティ予測の解釈可能性は、現実世界のアプリケーションに対する LIMP フレームワークの可能性を浮き彫りにします。
コードとデータは https://github.com/tsinghua-fib-lab/LIMP にあります。

要約(オリジナル)

Human mobility prediction is essential for applications like urban planning and transportation management, yet it remains challenging due to the complex, often implicit, intentions behind human behavior. Existing models predominantly focus on spatiotemporal patterns, paying less attention to the underlying intentions that govern movements. Recent advancements in large language models (LLMs) offer a promising alternative research angle for integrating commonsense reasoning into mobility prediction. However, it is a non-trivial problem because LLMs are not natively built for mobility intention inference, and they also face scalability issues and integration difficulties with spatiotemporal models. To address these challenges, we propose a novel LIMP (LLMs for Intent-ware Mobility Prediction) framework. Specifically, LIMP introduces an ‘Analyze-Abstract-Infer’ (A2I) agentic workflow to unleash LLM’s commonsense reasoning power for mobility intention inference. Besides, we design an efficient fine-tuning scheme to transfer reasoning power from commercial LLM to smaller-scale, open-source language model, ensuring LIMP’s scalability to millions of mobility records. Moreover, we propose a transformer-based intention-aware mobility prediction model to effectively harness the intention inference ability of LLM. Evaluated on two real-world datasets, LIMP significantly outperforms baseline models, demonstrating improved accuracy in next-location prediction and effective intention inference. The interpretability of intention-aware mobility prediction highlights our LIMP framework’s potential for real-world applications. Codes and data can be found in https://github.com/tsinghua-fib-lab/LIMP .

arxiv情報

著者 Songwei Li,Jie Feng,Jiawei Chi,Xinyuan Hu,Xiaomeng Zhao,Fengli Xu
発行日 2024-08-23 04:28:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク