要約
ライドシェアリング プラットフォームのドライバーは、一日中配車オファーを受け入れるときに認知機能の萎縮と疲労を示し、これがライドシェアリング プラットフォームの全体的な効率に大きな影響を与える可能性があります。
さまざまな乗り物オファーにわたるドライバーの好みのモデリングと学習に主に焦点を当てている現在の文献とは対照的に、この論文では、特定のシフト中のドライバーの一連の乗り物の決定をモデル化し、予測するための新しい動的割引満足度 (DDS) ヒューリスティックを提案しています。
DDS ヒューリスティックに基づいて、ランダムな活性化を備えた新しい確率的ニューラル ネットワークが、DDS ヒューリスティックをモデル化し、特定のドライバーによって行われる最終決定を予測するために提案されています。
ネットワーク内にランダムなアクティベーションが存在するため、Sampling-Based Back Propagation Through Time (SBPTT) と呼ばれる新しいトレーニング アルゴリズムの開発が必要になりました。このアルゴリズムでは、ニューラル ネットワークの独立したインスタンスの勾配が計算され (アクティベーションのしきい値の分布をサンプリングすることで取得されます)、集計されます。
ネットワークパラメータを更新します。
この論文では、シミュレーション実験と実際のシカゴのタクシー データセットの両方を使用して、最先端の方法と比較した場合に、提案されたアプローチのパフォーマンスが向上していることを実証します。
要約(オリジナル)
Drivers in ridesharing platforms exhibit cognitive atrophy and fatigue as they accept ride offers along the day, which can have a significant impact on the overall efficiency of the ridesharing platform. In contrast to the current literature which focuses primarily on modeling and learning driver’s preferences across different ride offers, this paper proposes a novel Dynamic Discounted Satisficing (DDS) heuristic to model and predict driver’s sequential ride decisions during a given shift. Based on DDS heuristic, a novel stochastic neural network with random activations is proposed to model DDS heuristic and predict the final decision made by a given driver. The presence of random activations in the network necessitated the development of a novel training algorithm called Sampling-Based Back Propagation Through Time (SBPTT), where gradients are computed for independent instances of neural networks (obtained via sampling the distribution of activation threshold) and aggregated to update the network parameters. Using both simulation experiments as well as on real Chicago taxi dataset, this paper demonstrates the improved performance of the proposed approach, when compared to state-of-the-art methods.
arxiv情報
著者 | Sree Pooja Akula,Mukund Telukunta,Venkata Sriram Siddhardh Nadendla |
発行日 | 2024-04-16 16:04:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google