AI-Driven Day-to-Day Route Choice

要約

旅行者のルート選択を理解することは、政策立案者が正常な状況と異常な状況の両方に最適な運用戦略や計画戦略を考案するのに役立ちます。
しかし、既存の選択モデリング手法は、事前に定義された仮定に依存することが多く、旅行行動の動的かつ適応的な性質を捉えるのに苦労しています。
最近、ラージ言語モデル (LLM) が有望な代替手段として登場し、さまざまな分野にわたって人間のような動作を再現する驚くべき能力を実証しています。
この可能性にもかかわらず、輸送環境における人間のルート選択行動を正確にシミュレートする能力には依然として疑問が残ります。
この好奇心を満たすために、この論文では、LLM 機能を備えたエージェント「LLMTraveler」を導入することにより、ルート選択モデリングにおける LLM の可能性を調査します。
このエージェントは、過去の経験から学習し、取得したデータと性格特性のバランスをとって意思決定を行う記憶システムを備えた LLM をコアとして統合しています。
この研究では、人間のような意思決定を再現する LLMTraveler の能力を 2 つの段階を通じて体系的に評価しています。(1) 単一の出発地と目的地 (OD) ペアの渋滞ゲーム シナリオにおけるルート切り替え動作を分析し、パターンが実験室のデータと一致していることを実証します。
従来のモデルでは完全には説明できず、(2) Ortuzar and Willumsen (OW) ネットワーク上で日常 (DTD) 適応学習動作をモデル化する能力をテストし、以下に匹敵する結果をもたらします。
多項ロジット (MNL) および強化学習 (RL) モデル。
これらの実験は、このフレームワークがルート選択における人間のような意思決定を部分的に再現しながら、その決定に対して自然言語による説明を提供できることを実証しています。
この機能は、新しいポリシーやネットワークの変更に対する旅行者の反応をシミュレートするなど、交通ポリシーの策定に貴重な洞察を提供します。

要約(オリジナル)

Understanding travelers’ route choices can help policymakers devise optimal operational and planning strategies for both normal and abnormal circumstances. However, existing choice modeling methods often rely on predefined assumptions and struggle to capture the dynamic and adaptive nature of travel behavior. Recently, Large Language Models (LLMs) have emerged as a promising alternative, demonstrating remarkable ability to replicate human-like behaviors across various fields. Despite this potential, their capacity to accurately simulate human route choice behavior in transportation contexts remains doubtful. To satisfy this curiosity, this paper investigates the potential of LLMs for route choice modeling by introducing an LLM-empowered agent, ‘LLMTraveler.’ This agent integrates an LLM as its core, equipped with a memory system that learns from past experiences and makes decisions by balancing retrieved data and personality traits. The study systematically evaluates the LLMTraveler’s ability to replicate human-like decision-making through two stages: (1) analyzing its route-switching behavior in single origin-destination (OD) pair congestion game scenarios, where it demonstrates patterns align with laboratory data but are not fully explained by traditional models, and (2) testing its capacity to model day-to-day (DTD) adaptive learning behaviors on the Ortuzar and Willumsen (OW) network, producing results comparable to Multinomial Logit (MNL) and Reinforcement Learning (RL) models. These experiments demonstrate that the framework can partially replicate human-like decision-making in route choice while providing natural language explanations for its decisions. This capability offers valuable insights for transportation policymaking, such as simulating traveler responses to new policies or changes in the network.

arxiv情報

著者 Leizhen Wang,Peibo Duan,Zhengbing He,Cheng Lyu,Xin Chen,Nan Zheng,Li Yao,Zhenliang Ma
発行日 2024-12-04 14:13:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク